2553735

Künstliche Intelligenz in der Cybersicherheit – ein zweischneidiges Schwert

07.12.2020 | 11:05 Uhr | Candid Wüest

Künstliche Intelligenz ist längst in der Cybersecurity angekommen – doch auch Kriminelle nutzen KI immer häufiger für ihre Angriffe. Welche Seite sitzt am Ende am längeren Hebel?

Von ihren bescheidenen Anfängen bis zu ihrer heutigen Form hat Künstliche Intelligenz einen weiten Weg zurückgelegt. Mittlerweile umgibt uns die Technologie in vielen Bereichen unseres Alltags. Sie entscheidet darüber, welcher Content uns in sozialen Netzwerken angezeigt wird, welche Werbung wir online zu sehen bekommen, und sie schlägt uns die neueste Musik in unserer Streaming-App vor.

Doch den wohl größten Einfluss auf betrieblichen Erfolg hat Künstliche Intelligenz im Bereich der Cybersecurity. Beim Schutz von Computersystemen und Netzwerken spielt KI eine größere Rolle als je zuvor – und ihr Einfluss wächst. Insbesondere multinationale Unternehmen schützen sich mithilfe von KI.

Laut einer Erhebung von Capgemini haben knapp 20 Prozent der befragten Organisationen vor 2019 Künstliche Intelligenz eingesetzt, um ihre Systeme zu schützen. Bis Ende 2020 werden es laut der gleichen Erhebung über 60 Prozent sein. Und im Jahr 2026 wird der weltweite Markt für KI in der Cybersicherheit auf voraussichtlich 38,2 Milliarden US-Dollar angewachsen sein – von 8,8 Milliarden US-Dollar im Jahr 2019.

Automatisierung und Beschleunigung

Künstliche Intelligenz wird vorrangig dort eingesetzt, wo enorme Mengen an Daten schnell analysiert werden müssen. Das hilft – wenn es um das Schützen von digitalen Assets geht – beispielsweise dabei, Zusammenhänge zu erkennen oder Fälle zu identifizieren, die sich außerhalb der Norm bewegen. Am häufigsten trifft man Künstliche Intelligenz in der Cybersecurity daher dort an, wo Gefahren erkannt werden müssen. KI unterstützt die menschliche Bedrohungserkennung durch Automatisierung und Beschleunigung – beispielsweise, indem Dateien vor der Ausführung statisch analysiert werden, um so Malware zu erkennen.

Auch bei der Reaktion auf Angriffe kann Künstliche Intelligenz – etwa bei der automatischen Wiederherstellung von beschädigten Daten nach einem Ransomware-Vorfall – nützlich sein. Zudem können Festplattenausfälle vorhergesagt und durch proaktive Backups bekämpft werden.

Auch Angreifer verlassen sich auf KI

Die Technologie wird jedoch nicht nur zum Schutz von Systemen eingesetzt. Längst nutzen auch Kriminelle maschinelles Lernen, um ihre Angriffe zu automatisieren. Dies spielt insbesondere in der Phase der Vorbereitung eines Angriffes eine große Rolle. Hier geht es vor allem darum, Informationen über das Ziel zu sammeln, zum Beispiel mittels Tools, die Informationen aus sozialen Netzwerken abgreifen, um personalisierte Phishing-E-Mails zu erstellen.

Gewisse Angriffe – darunter CEO Fraud – nutzen gefälschte Bilder und Stimmaufnahmen, die mit Deep-Fake-Technologie erstellt wurden. Solche Inhalte sind täuschend echt und praktisch nicht mehr als Fälschung zu erkennen, wie diverse erfolgreiche Fälle von CEO Fraud in den letzten Jahren belegt haben.

Dieses Vorgehen macht sich allerdings noch nicht das volle Potenzial maschinellen Lernens zunutze. Bisher ist noch kein Fall autonom lernender Malware bekannt geworden – es gab lediglich Angriffe, die ihr Verhalten an veränderte Umstände anpassten, allerdings auf Grundlage von klassisch definierten Regeln.

Das verschafft schützenden Anwendungsbereichen von KI in der Cybersecurity aktuell noch einen klaren Vorteil.

Es ist allerdings nur eine Frage der Zeit, bis die Technologie ausgereift genug ist, selbstlernende Systeme hervorzubringen, die KI-gestützte Sicherheitsmechanismen knacken können. Diese Entwicklung wird unter dem Begriff Adversarial AI zusammengefasst.

Kriminelle könnten in den nächsten drei bis fünf Jahren aufholen

Voraussichtlich werden wir in den nächsten drei bis fünf Jahren solche Systeme sehen. Doch Sicherheitsunternehmen antizipieren diese Entwicklung bereits heute, indem sie ihre eigenen Abwehrintelligenzen durch KI-Angriffe darauf trainieren, lernende Angriffe abzuwehren. Das verschafft ihnen einen Vorteil.

Viele Algorithmen, insbesondere Deep Learning und neurale Netzwerke, können einer gezielten Attacke derzeit noch nicht standhalten. Angreifer können die Entscheidungsbäume der KI über leicht manipulierte, aber dennoch gutartige Eingaben beeinflussen und so am Schluss eine ungewollte Aktion auslösen. Die tatsächliche Malware kann schlussendlich nicht mehr erkannt werden, weil die Vielzahl leicht manipulierter Dateien zuvor das System erheblich geschwächt hat. Es ist der berühmte Frosch im Wasser, der nicht merkt, wie er langsam gekocht wird.

Die KI-gestützten Attacken erlauben es den Angreifern auch, komplett neue Methoden zu entwickeln. So kann ein Schwarm einfacher Malware-Programme zusammen als eine Einheit agieren und ein Ziel überrennen. Jeder Baustein kann hierbei vom Scheitern der Vorgänger lernen, und dies in einer enormen Geschwindigkeit.

Die Automatisierung durch Machine Learning ermöglicht es Cyberkriminellen auch, Zufallsmethoden zu testen und Malware sich somit selbst weiterentwickeln zu lassen. Solche KI-Fuzzing-Methoden verändern zufällige Bereiche der Malware, bis diese nicht mehr von Scannern erkannt wird. Die Game Theory kann diese Entwicklung beschleunigen, indem das gewünschte Resultat vorgegeben wird – in diesem Falle das Übersehen der Malware.

Das gleiche Prinzip wurde bereits erfolgreich getestet, um neue Schwachstellen in Softwaresystemen zu entdecken. Einmal offenbart, können solche Schwachstellen gnadenlos von KI-Malware ausgenutzt werden. So erforschte IBM 2018 eine KI-Malware namens Deep Locker, die sich selbstständig tarnen konnte und somit fast unmöglich zu erkennen war.

Natürlich wird sich auch die KI-gestützte Prävention in dieser Zeit weiterentwickeln, um diesen neuen Bedrohungen entgegenzuwirken.

Adversarial AI scheitert am Menschen

Sowohl Angreifer als auch Angegriffene sind am Ausgangs- und Endpunkt immer Menschen. Deshalb muss gute Cyber Protection neben den neuesten Werkzeugen und Schutzmaßnahmen wie KI-gestützten Systemen auch den menschlichen Faktor miteinbeziehen. So sind zum Beispiel regelmäßige und umfassende Mitarbeiterschulungen über Angriffsmethoden, Bedrohungserkennung und Bedrohungsprävention eine wichtige Ergänzung.

Künstliche Intelligenz ist heute eine äußerst wichtige Verteidigungslinie im Cyberspace. Aber sie kann nicht alle früheren Techniken ersetzen. Wir müssen daher unser Instrumentarium erweitern, um der sich rasch entwickelnden Bedrohungslandschaft Herr zu werden. Denn wenn es darum geht, sich erfolgreich gegen moderne Cyberangriffe zu verteidigen, gibt es keine Wunderwaffe. KI bietet zwar großes Potenzial für beide Seiten des Spielfelds – stellt aber nur einen Baustein in umfassenden Sicherheitsstrategien dar.

PC-WELT Marktplatz

2553735