1740759

Verschlüsselung in der Zukunft - Was ist wirklich sicher?

12.05.2013 | 08:55 Uhr |

Was heute sicher erscheint, ist womöglich bald schon wieder geknackt. Quantencomputer und Co. machen es selbst den besten Algorithmen nicht leicht. So sieht die Zukunft aus.

Kryptologie, die Wissenschaft von der Ver- und Entschlüsselung, hat seit den ersten Geheimschriften der altägyptischen Zivilisation enorme Fortschritte gemacht. Paradoxerweise ist der Fortschritt jedoch gleichzeitig der größte Feind der Verschlüsselung: Durch schnellere PCs und neue mathematische Erkenntnisse werden sicher geglaubte Verschlüsselungsmethoden immer wieder ausgehebelt. Aktuell warnen Kryptologen davor, dass mit RSA einer der Grundpfeiler der verschlüsselten Kommunikation ins Wanken gerät. Für die sichere Datenübertragung suchen sie nach dem unknackbaren Algorithmus der Zukunft.

Tipp: Die besten kostenlosen Verschlüsselungstools

Wettlauf gegen steigende Rechenleistung

Die Leistung von Superrechnern legt alle elf Jahre etwa um den Faktor 1000 zu und steigt noch 2013 auf über 10 Petaflop.
Vergrößern Die Leistung von Superrechnern legt alle elf Jahre etwa um den Faktor 1000 zu und steigt noch 2013 auf über 10 Petaflop.

Kryptologie hat sich seit den 70er Jahren zu einer akademischen Disziplin entwickelt, die heute ohne große Geheimniskrämerei an vielen Universitäten gelehrt wird. Zum Entwickeln und Knacken von Verschlüsselungstechniken stehen heute Superrechner mit mehreren Petaflop (Floating Point Operations Per Second) zur Verfügung. Im Vergleich: Ein aktueller Core i7 mit vier Kernen leistet 0,0001 Petaflop. Eines der ersten Opfer der steigenden Rechenleistung war 1998 der 20 Jahre zuvor erfundene Data Encryption Standard (DES). Die Länge des Schlüssels beträgt bei diesem Algorithmus nur 56 Bit. Für moderne Superrechner ist das nurmehr eine kleine Herausforderung. Aktuelle symmetrische Algorithmen wie AES müssen mit mindestens 128 Bit arbeiten. Die Anzahl möglicher Schlüssel beträgt hier 3,4 x 10^38. Ein Supercomputer, der zum Brechen von DES durch das Ausprobieren sämtlicher Schlüssel nur eine Sekunde benötigt, ist bei AES 149 Billionen Jahre beschäftigt. Public-Key-Verfahren brauchen längere Schlüssel und die empfohlene Länge liegt bei 2048 Bit.

Kryptoanalyse mit Big Data

Der Begriff Big Data beschreibt gigantische Datenmengen, die sich wegen ihrer Größe nicht mehr in herkömmlichen Datenbanken speichern lassen. Dem Thema ist in diesem Dossier der Artikel „Big Data“ gewidmet. Lineare und differentielle Kryptoanalyse setzen große Datenmengen voraus. Bei der linearen Analyse werden Zusammenhänge zwischen Klartext und Schlüsseln untersucht. Die differentielle Analyse basiert auf der Untersuchung ähnlicher Klartexte und den Unterschieden in den dazugehörigen Geheimtexten. Analyseverfahren mit sehr großen Datenmengen könnten Schwachstellen in bisher sicher geglaubten Algorithmen finden – vorausgesetzt, genügend Rechenleistung steht zur Verfügung. Ein dazu geeignetes Rechenzentrum entsteht zurzeit in der Wüste von Utah im Auftrag der National Security Agency (NSA), jener legendären berüchtigten US-Behörde, die für die Überwachung, Entschlüsselung und Auswertung elektronischer Kommunikation zuständig ist.

Das Utah Data Center soll Schätzungen zufolge einen Supercomputer auf rund 8000 Quadratmetern sowie Speichermöglichkeiten auf 275 000 Quadratmetern beherbergen. Gewählt wurde der abgelegene Platz in Utah, da der US-Bundesstaat über genügend Reserven zur Energieversorgung verfügt. In Ford Meade, dem Hauptsitz der NSA in Maryland, ist die Stromversorgung bereits an ihrem Limit angekommen. Über die Rechenleistung, Speicherkapazität und den tatsächlichen Nutzen hält sich die NSA natürlich äußerst bedeckt. Offengelegt wurden allerdings der Bebauungsplan sowie das Budget von 1,5 Milliarden US-Dollar. Der Journalist James Bamford, Autor des Buches „NSA – Die Anatomie des mächtigsten Geheimdienstes der Welt“, das in Zusammenarbeit mit der Behörde entstand, schätzt die künftige Speicherkapazität auf mehrere Yottabyte (1 Yottabyte = 1 Million Exabyte). Damit könnte das Rechenzentrum den gesamten Internetverkehr mehrerer Jahre aufzeichnen. Angaben des Netzwerkausrüsters Cisco zufolge erreicht der weltweite Datenverkehr bis zum Jahr 2015 ein Volumen von 966 Exabyte.

0 Kommentare zu diesem Artikel
1740759