1741924

Big Data - Vermessung der Realität

02.04.2013 | 10:31 Uhr |

Lange galten unstruk­turierte Datenberge als „das weiße Rauschen“ der Informationstechnologie. „Big Data“ ist der Versuch, riesige Daten­mengen zu organisieren und nützliche Informati­onen aus den Gigabyte­-Bergen zu fördern.

Die bisher größte von Menschen gebaute Maschine steht hundert Meter tief un­ter der Erde in der Nähe von Genf: Der LHC (Large Hadron Collider) ist ein 27 Ki­lometer langer Teilchenbeschleuniger, der mit dem Nachweis des Higgs-­Bosons Einblicke in die Entstehungsgeschichte des Universums verspricht. Nicht nur die Anlage selbst, son­dern auch die erfassten Messdaten haben ei­nen Umfang der Superlative. Der rohe Da­tenstrom der De  tektoren beträgt während des Betriebs bis zu 300 Gigabyte pro Sekun­de. An Daten, die auf ihre Auswertung war­ten, produziert der LHC im angeschlossenen, auf 35 Länder verteilten Computernetzwerk fast 15 Petabyte pro Jahr. Auch für ein Groß­experiment eine erhebliche Datenmenge, für die rund 15 000 handelsübliche Festplatten zu je einem Terabyte Kapazität nötig wären. Trotz dieser Größenordnung haben Daten­mengen mit so einem Umfang einen hand­lichen kurzen Namen: „Big Data“. Der Be­griff steht für Informationsmengen, die sich nicht sinnvoll in herkömmlichen Datenban­ken speichern lassen und zur Auswertung statistische Ansätze erfordern. Die Zähmung der Datenfluten verspricht nicht weniger als eine neue Vermessung der Realität.

14 tollkühne Technik-Trends

1.) Neue Erkenntnisse aus rohen Daten

Die Experimente der Teilchenphysik sind ein Beispiel dafür, wie Big Data unter kollosalem Aufwand unser Verständnis der Welt ändern könnten. Einen deutlich kostengünstigeren Ansatz, aus Big Data neue Erkenntnisse zu gewinnen, verfolgen die Ingenieure John Guttag und Collin Stultz. Ihre Datenquelle besteht aus entsorgten Enzephalo­-Elektro­grammen (EEG), welche von Herzpatienten stammen. Mithilfe von Data­-Mining­-Tech­nik sowie lernfähigen Auswertungssystemen werden diese enormen Datenmengen, die zu­vor als wertloser Datenmüll betrachtet wur­den, nach Auffälligkeiten untersucht. Die Er­gebnisse zeigen bereits, dass drei vormals unbekannte Abnormalitäten im EEG mit dem Risiko eines Herzinfarktes korrelieren. Die Forscher sind sich sicher, dass ihre Aus­wertung bald die Diagnose von wiederkeh­renden Infarkten deutlich verbessert.

2.) Informationsflut aus Ozeanen

Datenflut: Die Macquarie University nutzt Big Data als Werkzeug für Meeresbiologen. Ein Taucher kontrolliert eine schwimmende Empfangsstation am Nigaloo Riff vor der Australischen Küste.
Vergrößern Datenflut: Die Macquarie University nutzt Big Data als Werkzeug für Meeresbiologen. Ein Taucher kontrolliert eine schwimmende Empfangsstation am Nigaloo Riff vor der Australischen Küste.
© Rob Harcourt, Macquarie University 2012, The Human Face of Big Data

Meeresbiologen der Australischen Macqua­rie University setzen ebenfalls auf Big Data, um den Ozean als Lebensraum besser zu ver­stehen. Seit 2007 werden das Meer und seine Fauna rund um den australischen Kontinent mit dem Integrated Marine Observing Sys­tem überwacht. Schwimmende Sensoren, Tauchroboter, Messstationen, Markierungen an Wassertieren und Satelliten tragen Tera­byte an Informationen zusammen. Für deren Auswertung wird der Datenstrom kontinu­ierlich in einer gigantischen Datenbank er­fasst. Big Data erlauben die Aufzeichnung von Tierwanderungen und Meeresströmun­gen sowie Was  sertemperatur und Salzgehalt.

3.) Big Data als kollektives Gedächtnis

Während die Wissenschaft gezielt Informati­onen sammelt, sind das Internet und seine Nutzer eine unerschöpfliche Quelle sponta­ner Daten. Wir produzieren jedes Jahr ein Vielfaches der Informationen des Vor  jahres und diese Kurve steigt exponentiell: Seit der Dämmerung des Homo Sapiens bis zum Jahr 2003 produzierte die Menschheit 5 Exabyte (5 Milliarden Gigabyte) an Daten. 2011 wur­de diese Menge in zwei Tagen produziert. Während bisher Forschungseinrichtungen, Behörden, Versicherungen und Regierungen Zugriff auf personenbezogene Datenmassen hatten, sind mit Google, Facebook und Twit­ter inzwischen auch Unternehmen im Besitz von benutzergenerierten Big Data. Und sie versuchen, diese Daten gewinnbringend aus­zuwerten. Google geht es um die Präsentati­on treffender Suchergebnisse und dabei um den perfekten Algorithmus für Werbeeinblen­dungen. Facebook und Twitter werden zu gigantischen sozialen Versuchslaboren, und die Anbieter suchen nach Wegen, Big Data zu monetarisieren. Die Auswertungsmethoden stehen erst am Anfang, und gespeicherte Da­ten bleiben größtenteils noch ungenutzt.

Das eigene Leben in Daten

Gordon Bell: Der 79-jährige Ingenieur entwickelte einst für DEC die legendäre PDP. Heute forscht er für Microsoft an seinem eigenen Daten-Ich und protokolliert minutiös sein Leben.
Vergrößern Gordon Bell: Der 79-jährige Ingenieur entwickelte einst für DEC die legendäre PDP. Heute forscht er für Microsoft an seinem eigenen Daten-Ich und protokolliert minutiös sein Leben.
© Mark Richards 2012, The Human Face of Big Data

Der 79­-Jährige hat bisher 200 GB Daten in dem Versuch angehäuft, ein komplettes Le­ben mit all seinen Ereignissen und Ideen papierlos aufzuzeichnen. Zunächst wurden Bücher und Aufzeichnungen platzsparend digitalisiert. Mittlerweile zeichnet Gordon Bell auch Telefonate, Gespräche und Tasta­tureingaben sowie die GPS­-Daten seines aktuellen Aufenthaltsorts auf. Selbst Blut­druck und Cholesterinwerte kommen ins elektronische Tagebuch. Eine Digitalkame­ra macht alle fünf Minuten ein Foto der Umgebung. Speisen, Getränke und Musik­genuss werden minutiös notiert. Es soll ein kompletter Lebens­-Log entstehen, mit allen Daten, die das Langzeitgedächtnis normaler­weise ausblendet. Die möglichst vollständige Protokollierung der Aktivitäten eines Men­schen, seiner Ideen sowie seiner sozialen Kontakte klingt für die meisten Zeitgenossen nach einem Alptraum. Gordon Bell will aber durch die Analyse seiner ganz persönlichen Big Data herausfinden, was einem Menschen gut tut und was ihm schadet.

0 Kommentare zu diesem Artikel
1741924