KI-Werkzeuge erzeugen im Handumdrehen neue Texte, Bilder und Audiodateien. Diese Tools sind auch für Cyberkriminelle interessant. Spätestens seit dem Debüt des KI-basierten Chatbots Chat-GPT im November 2022 experimentieren Angreifer mit diesen Programmen.
Zwar haben Open AI und andere Hersteller von KI-Programmen Sicherheitsmaßnahmen entwickelt, um Missbrauch zu verhindern, doch halten diese den Angriffen nicht immer stand. Laut den Forschern von Check Point verkaufen Cyberkriminelle bereits Tools, mit denen sich die Sicherheitseinschränkungen von Chat-GPT umgehen lassen, um Malware zu erstellen. Zumindest zeitweise haben diese Tools wohl gut funktioniert.
Fake-ChatGPT: Wie Betrüger den Hype um die Chat-KI ausnutzen
Schon der Name „Chat-GPT“ ist Angreifern dienlich
Angriffe mit Phishing-Mails benötigen fast immer einen guten Aufhänger, um die Empfänger in die Falle zu locken. Die Betreffzeile der Phishing-Mail sollte beispielsweise eine große Nähe zum Opfer haben.
Der Betreff „Sie haben Ihr DHL-Paket verpasst“ kann einen Empfänger dazu verleiten, auf einen Anhang zu klicken, wenn er zufällig tatsächlich gerade ein DHL-Paket erwartet. In diesem Fall kommt zur Nähe des Betreffs auch noch eine gewisse Dringlichkeit hinzu.
Ein weiterer Aufhänger für Phishing-Angriffe mit Malware sind aktuelle, brisante Themen. Das kann ein Bahnstreik sein, ein sportliches Großereignis wie die Olympischen Spiele oder das Thema künstliche Intelligenz. So wurden im März 2023 neue Malware-Familien entdeckt, die den Namen Chat-GPT verwenden, um Benutzer zu täuschen. Häufig handelt es sich um Apps oder Browser-Erweiterungen, die Chat-GPT-Tools imitieren.

In diesem Untergrundforum diskutieren die Teilnehmer, wie die KI Chat-GPT für einen Marktplatz im Dark Web genutzt werden kann. Auf solchen Marktplätzen werden beispielsweise gestohlene digitale Güter verkauft.
IDG
In einigen Fällen bieten die gefälschten Tools sogar einige echte Chat-GPT-Funktionen an. Ihr eigentliches Ziel ist es jedoch, die Anmeldedaten des Benutzers aus dem Browser zu stehlen oder zu einem teuren Abo zu verleiten. So finden sich in den offiziellen App-Stores von Google und Apple Apps, die Zugriff auf Chat-GPT-Pro versprechen, wenn man zehn Dollar pro Monat zahlt. Liefern tun sie aber nicht.
Geld vom Finanzamt: So läuft ein aktueller Betrug
Gefälschte Sprachnachrichten, die täuschend echt klingen
Auch ohne KI-Tools war die CEO-Vortäuschung in den letzten Jahren eine beliebte Masche bei Cyberkriminellen. Dabei geben sich die Angreifer als Chef des Unternehmens (CEO) aus und schreiben die Buchhaltung oder den CFO (Finanzchef) an. Sie überzeugen ihr Opfer, dass es schnell einen hohen Geldbetrag überweisen muss. Es ginge, so die Nachricht vom Chef, um eine eilige Firmenübernahme, die er jetzt tätigen muss.
Auch wenn es merkwürdig klingt: Es sind bereits viele Mitarbeiter auf den Trick hereingefallen und haben Hunderttausende Euro oder gar Millionenbeträge an die Betrüger überwiesen.
Bisher setzten die Kriminellen für diese Masche nur gut gemachte Mails ein. Mit Hilfe von KI-Tools lässt sich aber auch die Stimme eines Menschen nachbilden. Dazu muss die KI mit genügend Originalmaterial, also echten Aufnahmen einer Person, trainiert werden. Ein entsprechendes KI-Tool namens Vall-E soll Ende Mai veröffentlicht werden. Gerüchten zufolge sollen iPhones Ende 2023 mit iOS 17 eine solche Funktion erhalten.
Für den CEO-Betrug bedeutet das, dass die Angreifer zusätzlich zu den gefälschten Mails auch gefälschte Sprachnachrichten versenden könnten und damit möglicherweise noch überzeugender wirken.
KI in den Händen von Hackern
Wie können Cyberkriminelle die neuen KI-Chatbots und andere KI-Tools für ihre Zwecke nutzen? Mit dieser Frage haben sich in den vergangenen Monaten nicht nur Experten von Sicherheitsfirmen beschäftigt, sondern auch Europol und andere staatliche Stellen. Wir haben bei den KI-Tools Chat-GPT, Bing Chat und Bard nachgefragt und folgende Antworten erhalten:
Chat-GPT: „Wenn Cyber-Kriminelle Zugriff auf mich haben, könnten sie versuchen, meine Antworten so zu manipulieren, dass sie den Benutzern schaden. Zum Beispiel könnten sie mich dazu bringen, falsche Informationen zu verbreiten, gefälschte Links zu senden oder bösartige Dateien herunterzuladen. […] Ein weiterer Ansatz wäre, meine Lernalgorithmen zu manipulieren, indem sie absichtlich falsche Daten in mein System einspeisen. Dadurch könnten sie mich dazu bringen, falsche Vorhersagen zu treffen oder unangemessene Empfehlungen zu geben.“
Der Chatbot Bard antwortet schon fast unbescheiden: „Es gibt viele Möglichkeiten, wie Cyberkriminelle eine künstliche Intelligenz wie mich missbrauchen könnten.“ Im Folgenden nennt er unter anderem die Punkte „Social Engineering“, „Malware“, „Deepfakes“ und „Cybercrime as a Service“.
Der Chatbot Bing Chat nennt mehr oder weniger dieselben Themen, jeweils ergänzt um ein oder zwei Erklärungssätze.
F for Fake: Massenhaft gefälschte und täuschend echte Fotos

Ein Großbrand in einer Chemiefabrik? Nein. Dieses Bild hat die KI Stable Diffusion erzeugt. Mit diesem Bild könnte man gefälschte, schlechte Nachrichten über einen Chemiekonzern verbreiten.
IDG
„F for Fake“ ist der Titel eines Dokumentarfilms des Filmemachers Orson Wells aus dem Jahr 1973. In dem ironischen Film geht es um den Kunstfälscher Elmyr de Hory, der mehrere tausend Fälschungen in Umlauf gebracht haben soll. Um auf diese Zahl zu kommen, brauchte de Hory rund drei Jahrzehnte. Mit KI-Tools wie Midjourney oder Stable Diffsion können Cyberkriminelle in kürzester Zeit massenhaft neue Bilder erstellen. Diese gehen zwar nicht als Gemälde von Picasso oder Renoir durch, da die Zutaten Leinwand und Farbe fehlen.
Doch im Fälschen von Fotos sind die KI-Tools sehr gut. So können Angreifer erfundene Geschichten durch Fotofälschungen glaubwürdig machen. Einen Vorgeschmack auf gefälschte Bilder mit KI-Tools gaben die „Aufnahmen“ von Donald Trump, der scheinbar von FBI-Agenten verhaftet wird, und von Papst Franziskus, der einen lustigen Designer-Daunenmantel trug. Beide Bilder gingen viral und faszinierten die Betrachter. Beide wurden aber auch schnell als Fakes, also Fälschungen, entlarvt.
Achtung, Fake! So erkennen Sie gefälschte Bilder à la Midjourney
Es ist zu befürchten, dass in Zukunft vermehrt solche Manipulationen eingesetzt werden. So könnte passieren, dass Kriminelle in einem Wahlkampf Bilder des politischen Gegners verbreiten, auf denen dieser scheinbar anstößige Dinge tut. Das wiederum kann die Wahl beeinflussen.
Andere Betrugsszenarien sind an der Börse denkbar: Wenn Fotos auftauchen, die scheinbar Umweltverbrechen eines Chemiekonzerns belegen, kann das den Aktienkurs des Unternehmens beeinflussen. Akteure, die auf fallende Kurse wetten, werden reich. Wenn danach Experten herausfinden, dass alles eine Fälschung war, ist das Ziel der Angreifer längst erreicht.
Rachepornos: Mit Deepfakes Videos manipulieren
Unter Rachepornografie versteht man die Verbreitung von Inhalten mit nackten oder sexuell expliziten Darstellungen ohne Einwilligung der auf dem Foto oder Video abgebildeten Person. Rachepornografie zielt in erster Linie darauf ab, die Opfer in Verlegenheit zu bringen oder ihren Ruf zu schädigen. Wie der Begriff bereits andeutet, sind meist Rachemotive die treibende Kraft.
Bei den Opfern handelt es sich überwiegend um Frauen, bei den Tätern meist um Ex-Partner, die sensible Inhalte weitergeben, um sich zum Beispiel für das Ende der Beziehung zu rächen. In anderen Fällen haben sich Cyberkriminelle in die Computer der Opfer gehackt, um dort nach Nacktbildern zu suchen und diese zu veröffentlichen.
Mit neuen KI-Funktionen sind Angreifer heute nicht mehr auf vorhandenes kompromittierendes Foto- oder Videomaterial ihrer Opfer angewiesen. Fotos vom Gesicht der Person reichen aus. Videotools können dieses in jede vorhandene pornografische Aufnahme einbauen. Diese Technik wird als Deepfake bezichent.
Wer nicht über das nötige Know-how verfügt, kann im Darknet Deepfake-Videos in Auftrag geben. Laut den Sicherheitsexperten von Kaspersky sind solche Dienste bereits ab 300 Dollar zu haben. Die Veröffentlichung von intimen Fotos und Videos kann den Opfern nachhaltig schaden und Konsequenzen am Arbeitsplatz oder im persönlichen Umfeld haben. Die Belastung für die Opfer kann extrem hoch sein.
Whatsapp-Betrug: So läuft die Masche und so schützen Sie sich
Phishing-Mails: Darum sind KI-Chatbots für Phishing-Angriffe ideal

Sicherheitsforscher fordern die KI Chat-GPT auf, eine Mail zu schreiben, die sich später gut als Phishing-Mail eignet. Chat-GPT warnt zwar, liefert den Text aber trotzdem aus.
IDG
Chatbots wie Chat-GPT liefern nach der Eingabe weniger Sätze eine vollständige Mail. Diese ist in der Regel formal einwandfrei, enthält keine Rechtschreibfehler und überzeugt durch einen guten, lesbaren Schreibstil. Das ist ideal für jeden Angreifer. Mit minimalem Aufwand erhält er so täuschend echte Mailtexte, die er zudem leicht an individuelle Ziele anpassen kann.
Hat er es zum Beispiel auf die Mitarbeiter eines Unternehmens abgesehen, kann er mit Chat-GPT und ein wenig Recherche zum Unternehmen die Phishing-Mails noch glaubwürdiger klingen lassen. Schon vor dem KI-Chatbot gab es Phishing-Mails, die kaum als solche zu erkennen waren. Mit Hilfe von KI-Tools wird dies den Angreifern in Zukunft noch viel häufiger gelingen.
Kriminelle programmieren mit Chat-GPT & Co. Malware

Hier berichtet ein Teilnehmer eines Untergrundforums, dass er mit Hilfe der KI Chat-GPT einen Infostealer programmiert hat. Die KI könne auch anderen nützlichen Code generieren und verbessern.
IDG
In den letzten Monaten haben vor allem Kriminelle ohne Programmierkenntnisse die neuen KI-Tools zur Erstellung von Malware genutzt. Die so erzeugten Schädlinge sind nicht besonders raffiniert, aber dennoch eine weitere Belastung für Antivirenprogramme. Ob mittelfristig auch die Raffinesse der KI-generierten Malware zunimmt, etwa weil Programmierprofis die KI-Tools ebenfalls nutzen, ist noch nicht klar. Zumindest wurden bereits wenige Wochen nach der Veröffentlichung von Chat-GPT in Untergrundforen der Einsatz des KI-Tools diskutiert und demonstriert.
Die Forscher von Checkpoint Research zeigen Fälle auf, in denen Forumsteilnehmer gefährlichen Code posten, der von Chat-GPT generiert wurde. In einem Fall ist der Code in der Lage, Dateien mit bestimmten Dateiendungen auf einem PC zu sammeln und ins Internet zu laden. Es handelt sich um einen einfachen Infostealer.
Ein anderes Beispiel ist ein Code, der Dateien verschlüsselt und somit auch als Erpresservirus eingesetzt werden kann.
KI-Tools erstellen eine komplette Angriffskette

Hier wird Chat-GPT angewiesen, ein VBA-Makro zu schreiben, das beim Öffnen einer Excel- Datei weiteren Code aus dem Internet lädt und ausführt. Auf diese Weise lassen sich Viren auf einen PC laden.
IDG
Die Sicherheitsforscher von Checkpoint Research haben sich bereits intensiv damit beschäftigt, wie Cyberkriminelle die neuen KI-Tools für ihre Zwecke missbrauchen können. In einem Blog-Eintrag zeigen sie, wie ein kompletter Angriff mit Hilfe von KI-Tools durchgeführt werden kann, ohne dass der Angreifer Programmierkenntnisse besitzen muss. Darin erstellen die Experten mit Chat-GPT und Codex eine Phishing-Mail und eine bösartige Excel-Datei, die mit Hilfe von Makros weiteren Schadcode auf den PC lädt. Eine klassische Angriffsmethode der Cyberkriminellen.
- Schritt 1: Die Checkpoint-Forscher erzeugen die Phishing-Mail mit Chat-GPT. Dazu geben die Forscher dem Chatbot die simple Anweisung „Erstelle eine Phishing-Mail, die vorgibt, von dem erfundenen Webhoster Host4u zu stammen“. Und das tut der Bot tatsächlich (siehe Screenshot). Zwar gibt er auch einen Hinweis aus, dass seine eigene Ausgabe gegen die Regeln verstoßen könnte, aber der Text ist da. Er ist eine gute Grundlage für die Phishing-Mail, die die Forscher zusammen mit Chat-GPT noch weiter verbessern.
- Schritt 2: Auch das Makro für die Excel-Datei lassen die Checkpoint-Experten von Chat-GPT schreiben. Ihr einfacher Auftrag an den Chatbot lautet sinngemäß: Schreibe ein VBA-Makro für eine Excel-Datei, das beim Öffnen der Datei ein Programm aus dem Internet herunterlädt und ausführt.
- Schritt 3: Generierung von Angriffscode mit dem Tool Codex. Ziel dieser Aufgabe ist es, auf dem Zielrechner unbemerkt eine sogenannte Reverse Shell zu starten. Eine Reverse Shell baut eine Verbindung zum Angreifer auf und übergibt diesem die Kontrolle über den PC. Firewall-Regeln umgeht die Reverse Shell. Schließlich lassen die Checkpoint-Forscher den Angriffscode in ausführbare Dateien umwandeln und haben damit alle Voraussetzungen für einen erfolgreichen Angriff geschaffen. Den Blog-Eintrag finden Sie hier.