Ausgabe: 9/2013, Seite 80   -  Technik & Kommunikation

AGENTEN IM HEUHAUFEN

Die technischen Möglichkeiten, Daten auszuspähen, sind gewaltig. Der gläserne Bürger zappelt im digitalen Netz, das die National Security Agency der USA perfekt auslegt.

von Ulrich Schmitz
 

Die National Security Agency (NSA) der USA hat laut den Enthüllungen des ehemaligen amerikanischen Geheimdienst-Mitarbeiters Edward Snowden direkten Zugriff auf den digitalen Datenverkehr der Bürger – und damit auf gewaltige Datenmengen. Der angebliche Zweck des Wühlens in den Daten ist die Abwehr von Gefahren durch Terroristen, die sich im Internet tummeln.

Die Bezeichnungen für die Menge der Daten, die im Internet kursieren, klingen dabei immer exorbitanter: Petabyte, dem „Nachfolger“ von Terabyte, schließt sich Exabyte an, gefolgt von Zettabyte und Yottabyte – eine Zahl mit nicht weniger als 24 Nullen.

Einem Bericht des Magazins „Wired“ zufolge will die NSA im US-Bundesstaat Utah ein gigantisches Spionagezentrum errichten. Dafür werden Kosten von rund 2 Milliarden US-Dollar (rund 1,5 Milliarden Euro) veranschlagt. Das neue hochmoderne Zentrum soll ein Yottabyte Daten in seinen Speichern halten können. Denn der Terror könnte in Google-Suchanfragen, Skype-Chats, in eBay-Auktionen oder sonstigen Dokumenten oder Telefonaten lauern, behaupten viele Sicherheitspolitiker.

Dabei knüpfen die Terrorfahnder an Bewährtes an: Im Kern geht es fast immer darum, Muster in Daten zu finden und zu interpretieren. Schon vor vielen Jahren haben etwa Kreditkartengesellschaften damit begonnen, einen Missbrauch der Karten frühzeitig aufzudecken. Wer bargeldlos reist, erzeugt in aller Regel ein klares Muster: Schon den Flug bezahlt er mit seiner Kreditkarte. Bei der Ankunft werden die Daten dann zum Beispiel beim Übernehmen des Mietwagens und beim Tanken auf der Karte erfasst. Es folgen das Abendessen und die Hotelrechnung. Auch kleinere Mitbringsel werden per Kreditkarte bezahlt. Wenn dieses Muster abgeschlossen ist – etwa beim letzten Tanken –, kehrt die Karte quasi in „heimische Gefilde“ zurück.

Was aber ist, wenn drei Tage später mit derselben Karte in der Nähe des Urlaubsziels in einem Elektromarkt drei Festplattenrecorder und zwei Flachbildschirme gekauft werden? Dann schrillen bei den Geldinstituten die Alarmglocken, denn die Karte könnte von Gaunern kopiert und missbraucht worden sein. Einen solchen Missbrauch können die Geldinstitute schon lange automatisiert mithilfe routinemäßig hinterlegter Algorithmen aufdecken.

Blitz-check in vier Sekunden

Neuerdings kommt der Faktor Geschwindigkeit hinzu – und deshalb hat das massenhafte Scannen von Daten und Datenverkehr eine neue Dimension bekommen. Laut Wolfram Jost, dem Cheftechnologen der Darmstädter Software AG, hat sich die Dauer der Analyse eines möglichen Kreditkartenmissbrauchs von 45 Minuten auf gerade mal 4 Sekunden verkürzt. „So bewahrt ein renommiertes Kreditkartenunternehmen seine Kunden vor Vermögensverlusten in Höhe von insgesamt Hunderten Millionen Dollar. Im Vier-Sekunden-Takt prüft der Finanzdienstleister jede Transaktion auf das Risiko einer betrügerischen Handlung“, erläuterte Jost in der Fachzeitschrift für Business Intelligence, BI-Spektrum.

Beim systematischen Scannen des Datenverkehrs spielen vor allem vier Faktoren eine Rolle, die vier „V“ von Big Data: Volume, Variety, Velocity und Value – also: Datenvolumen, Vielfalt, Tempo und der Wert, der in den Daten steckt. Diese Eigenschaften machen sich auch Terrorfahnder zunutze. Schreibt zum Beispiel jemand eine E-Mail an seinen Freund mit dem Text: „Wir treffen uns am Bahnhof. Ich bringe die Tasche mit der Bombe mit.“ und erhält als Antwort: „Okay, dann kümmere ich mich um den Zünder und die Verkabelung.“, dann stellt das den „Value“ dar: den Fahndungserfolg.

Zwar versteckt sich eine solche E-Mail unter Milliarden anderen. Doch im Unterschied zu früher sind inzwischen Technologien verfügbar, mit deren Hilfe sich Fahndungsziele dieser Art ausfindig machen lassen. Laut Jost kann man „auf Basis preiswerter Standard-Hardwarekomponenten moderne Infrastrukturen realisieren, die immer größere Datenmengen direkt im Hauptspeicher oder verteilt auf mehrere Prozessoren bearbeiten und verwalten“.

Das hilft nicht nur den US-Terrorfahndern der NSA. Auch Energieversorger können von diesen Möglichkeiten profitieren: Daten, die intelligente Stromzähler (Smart Meter) über den Stromverbrauch in Haushalten und Industriebetrieben sammeln, lassen sich nutzen, um schnell auf Bedarfsspitzen zu reagieren – und auch im Voraus, da die Gewohnheiten der Verbraucher aus der Auswertung der Daten bekannt sind.

Maschinen, die selbst in monströsen Heuhaufen die Nadeln finden, sind längst frei käuflich. Die Totalüberwachung des digitalen Datenverkehrs ist Realität. So setzt etwa Deutschlands größter Software-Anbieter SAP beim sogenannten In-Memory-Computing auf die „Hana-Technologie“. Damit lässt sich umgehen, dass das Laden von der Festplatte die Verarbeitung der Daten verlangsamt. Das ist ein Problem bei herkömmlichen Rechnern, da in ihrem Arbeitsspeicher zu wenig Platz für große Datenmengen ist. Beim In-Memory-Computing lassen sich die Daten dagegen direkt im Arbeits- oder Hauptspeicher interpretieren. Der Hauptspeicher eines modernen Superrechners kann ein halbes Terabyte an Daten verarbeiten. Wenn mehrere solche Computer miteinander verbunden sind, bietet dieser Cluster sogar noch eine deutlich größere Kapazität.

Lauschen im Sozialen Netz

„Im Zusammenhang mit Big Data bedeutet Value, dass etwa in einem Cluster mit mehreren Petabyte Datenvolumen nur ein begrenzter Teil der Daten für die Entscheidungsfindung von Bedeutung ist“, erklärt Wolfram Jost. „Genau diese Value-Daten gilt es zu extrahieren.“ Ob das wichtige Geschäftsdaten sind oder Mitteilungen einer potenziellen Terrorzelle, ist nicht von Belang. Oder anders ausgedrückt: Was solche gewaltigen Maschinen finden sollen, bestimmt der Benutzer. Und da auch Terroristen ein Mitteilungsbedürfnis haben, lohnt es sich, in soziale Räume hineinzuhören. Dazu haben Software-Architekten der MT AG aus Ratingen spezielle Instrumente entwickelt.

Man spricht dabei von „Social Media Intelligence“. Damit verbundene Begriffe wie „Social Media Listening“, „Social Media Monitoring“ und „Social Media Analytics“ lassen aufhorchen: Zwar mag es das primäre Ziel dieser Instrumente sein, möglichst schnell reagieren zu können, wenn etwa bei Facebook ein Produkt von vielen Konsumenten verrissen wird. Doch ein Fahnder kann mit ihrer Hilfe auch schnell zugreifen, wenn auffallend oft die Worte „Bombe“, „Bahnhof“ und „Zünder“ fallen – oder „Demokratie“ und „abschaffen“ – oder „schlechte Regierung“ – oder „die Linken bekämpfen“. Der menschlichen Fantasie sind da keine Grenzen gesetzt, und spätestens hier fängt die politische Dimension des Problems an. Getreu dem Motto des einstigen italienischen Staatsdieners Nicoló Machiavelli „Der Zweck heiligt die Mittel“ ist leider alles möglich.

Suche nach Auffälligkeiten

So nutzt das Insurance Fraud Bureau der Association of British Insurers in London – eine Einrichtung, die Versicherungsbetrug aufdecken soll – eine intelligente Software der Firma Detica namens NetReveal. Sie kann Häufungen von Unfällen auf den Straßen einer Region und die daraus resultierenden Schadensmeldungen aufspüren. Auch die Zurich Versicherung hat die Software vor Kurzem in Italien aktiviert. Trotz der Masse an personen- und raumbezogenen Daten in Großbritannien, die bis weit in den Terabyte-Bereich gehen, war NetReveal bereits 2006 in der Lage, Personen zueinander in Beziehung zu setzen und mit Ereignissen zu korrelieren, zum Beispiel mit Schadensmeldungen an Versicherungsunternehmen.

In einer dieser Analysen tauchten überraschend oft identische Personen auf sowie deren Brüder, Neffen und Vettern, die angeblich alle in derselben Region in Unfälle verwickelt waren und Schadensersatz geltend machten, etwa wegen eines Schleudertraumas nach einem Auffahrunfall. Das berichtete Dave Porter, der bei Deteca für diesen Bereich zuständig war, bereits Ende 2006 auf einem Forum des Heidelberger Softwareherstellers SAS. Sein Fazit: Solche fingierten Auffahrunfälle tragen das Muster der organisierten Kriminalität.

Das Prinzip ist seither unverändert geblieben – gewachsen sind die technischen Möglichkeiten. Die Geheimdienste und Ermittlungsbehörden müssen nur noch aus dem – hoffentlich großen – Reich des Guten das Schlechte herausfiltern. Die „heiligen Mittel“ dazu haben sie. Jetzt wird es höchste Zeit, über den Zweck zu diskutieren. Und darüber, wer den Zweck und „das Schlechte“ definieren darf. ■


ULRICH SCHMITZ ist Technikjournalist in Troisdorf. Er verfolgt gespannt die rasante Entwicklung bei Datenanalyse und -schutz.

MEHR ZUM THEMA

Internet

Magazin BI-Spektrum, Ausgabe 4/2012 (mit Beiträgen über In-Memory-Computing): www.tdwi.eu/publikationen/bi-spektrum/archiv/archiv-detailansicht/?show=39

Die National Security Agency im Web: www.nsa.gov

Online-Schwerpunkt der Computerwoche über In-Memory-Computing: www.computerwoche.de/schwerpunkt/ In-Memory



« zurück