Bereits seit mehr als zwei Jahrzehnten verbreiten darauf spezialisierte Websites Fotos, auf denen Gesichter prominenter Personen, meist Frauen, in Szenen aus Porno-Filmen montiert werden. Waren solche gefälschten Fotos früher auf den ersten Blick als solche erkennbar, ermöglichen heute Techniken aus der KI-Forschung sogar das Einfügen beliebiger Gesichter in Videos. Nach einer Untersuchung des Unternehmens DeepTrace Technologies waren im Jahr 2019 mehr als 95 Prozent solcher manipulierten Machwerke im Internet Porno-Videos.
Was sind Deepfakes?
Als Bezeichnung für Bild- und Tonmaterial, das mit Algorithmen aus dem Machine Learning (ML) manipuliert wird, hat sich der Begriff Deepfake etabliert. Deepfake ist ein Kofferwort aus Deep Learning und Fake (Fälschung). Beim Deep Learning analysieren neuronale Netzwerke, die auf Mustererkennnung spezialisiert sind, in mehreren Schritten große Mengen Trainingsmaterial. In der frühen Zeit dieser Sparte der KI-Forschung (KI: künstliche Intelligenz) konnten solche Systeme nach dem Training immerhin Hundefotos mit recht hoher Erfolgsquote von Katzenfotos unterscheiden.
KI kann heute mehr als Katzen und Hunde zu erkennen
Heute erstellen ML-Algorithmen Gemälde im Stil alter Meister, komponieren unvollendete Sinfonien zu Ende oder versehen Videos bekannter Politiker mit neuem Ton und passen dabei sogar die Lippenbewegungen an. Voraussetzung für halbwegs überzeugende Ergebnisse ist die Verfügbarkeit umfangreichen Trainingsmaterials. Zumindest bei prominenten Personen liefert das Internet meist reichlich Video- und Tonmaterial. Das Training kann je nach Datenmenge und Rechenleistung Stunden oder Tage dauern.
So ging es vor wenigen Jahren los
Die ersten Deepfake-Pornos sind im Jahr 2017 auf der Plattform Reddit aufgetaucht. Dafür haben die Ersteller der Videos frei zugängliche Software benutzt, etwa Keras oder TensorFlow. Sie montierten damit Gesichter bekannter Schauspielerinnen in Pornofilme. Die im Jahr 2018 veröffentlichte Software FakeApp ermöglichte es praktisch jedermann, ohne besondere Kenntnisse und Fertigkeiten beliebige Gesichter in vorhandene Videos einzufügen. Mittlerweile gibt es mehrere kostenlos erhältliche Open-Source-Programme und Mobil-Apps (Face Swap Apps), die solche Videomanipulationen ohne Spezial-Know-how oder Hochleistungsrechner ermöglichen.
▶Bruce Willis tritt per Deepfake in russischen Werbespots auf
Bereits zu dieser Zeit wurden erste Bedenken geäußert, solche Apps könnten dazu missbraucht werden, um auch Privatpersonen zu diskreditieren, zu mobben oder mit Fake-Pornos zu erpressen. Verschiedene Plattformen, von Discord über Facebook und Twitter bis Youtube, haben daraufhin das Hochladen von Deepfake-Videos verboten. Die Prüfung hochgeladener Videos erfolgt ebenfalls mit spezialisierten ML-Algorithmen. Sie suchen nach typischen Merkmalen, die das ungeschulte Auge eines Menschen leicht übersehen kann. Dazu gehören etwa Farbabweichungen und helle Bereiche („Halos“) an den Kanten der eingefügten Gesichter, Unschärfen oder unnatürliches Blinzeln.
Petition gegen Deepfake-Pornos gestartet

HateAid
Die Organisation HateAid hat am 24. November eine Online-Petition gestartet, die sich an Digitalminister Volker Wissing (FDP) richtet. Darin fordert sie ihn auf, die „ungewollte Manipulation von Nacktaufnahmen“ zu stoppen. So genannte Face Swap Apps sollen aus den App Stores verbannt werden. Wissing soll außerdem prüfen, ob das deutsche Strafrecht angepasst werden muss. Die Petition wird von mehreren weiteren Organisationen unterstützt.
▶ weitere Infos und zur Petition
Wie erkenne ich Deepfakes?
Die wichtigste Voraussetzung, um Deepfakes zu erkennen, ist zunächst, sich der Möglichkeit bewusst zu sein, dass sich solche Fälschungen erstellen lassen und in Betracht zu ziehen, dass das fragliche Video (oder auch eine Sprachnachricht) ein Deepfake sein könnte. Der nächste Schritt ist die Suche nach Logikfehlern im Inhalt sowie nach der Antwort auf die kritische Frage, ob die im Video gezeigte Person wirklich tun würde, was im Video zu sehen (und zu hören) ist. Und warum sollte sie das tun?
▶Deepfake: Tom Cruise in Unreal Engine 5
Erst dann folgt die Suche nach technischen Unzulänglichkeiten im verdächtigen Material. Denn die Algorithmen werden immer besser, der benötigte Zeit- und Rechenaufwand geringer, die Fehler subtiler. Halten Sie Ausschau nach unscharfen oder farblich abweichenden Kanten, wo der Kopf, speziell die Haare, auf den Originalhintergrund trifft. Zuweilen zeigt sich eine Art Halo um den Kopf. Die Beleuchtung oder Farbtönung des Gesichts kann von einem Videoframe zum nächsten wechseln. Das Gesicht kann eine andere Auflösung als das übrige Video aufweisen. Wenn die Person nicht oder in unnatürlicher Weise blinzelt, ist dies ebenfalls ein Indiz für eine Fälschung. Zeigt die Nase in eine unpassende Richtung oder ist verzerrt, deutet das darauf hin, dass aus einem (2D-) Foto ein dreidimensionales Modell des Gesichts generiert worden ist, um Bewegungen des Originalkopfes im ursprünglichen Video zu folgen.
Wie schütze ich mich vor Deepfakes?
Um Mobbing oder Erpressungsversuchen mit Deepfakes vorzubeugen, sollten Sie möglichst wenig Bild- und Videomaterial von sich im Netz veröffentlichen. Je mehr Material aus unterschiedlichen Blickwinkeln und Beleuchtungssituationen Sie von sich bereitstellen, desto einfacher haben es potenzielle Täter. Das steht allerdings diametral gegen den Zeitgeist bei Social Media, wo viele versuchen, sich so zu präsentieren, wie sie gerne gesehen werden möchten. Es gibt auch Software, die Artefakte in Fotos und Videos einfügen kann, um die Gesichtserkennung der ML-Algorithmen auszubremsen. Das hilft jedoch nicht bei bereits veröffentlichten Fotos und Videos – und das Netz vergisst nicht.
Ist der Ernstfall eingetreten, können Sie auch juristisch gegen den/die Täter vorgehen. Zwar gibt es hierzulande noch keine Gesetze, die speziell auf diese Situation eingehen, doch der Schutz der Persönlichkeit und der Menschenwürde ist rechtlich gewährleistet. Erpressung und die sogenannte üble Nachrede (als solche kann man auch entwürdigende Fotos und Videos betrachten) sind Straftatbestände. Wichtig ist, dass Sie so viele Indizien wie möglich sammeln und sichern, die auf mögliche Täter hinweisen, zum Beispiel Chat-Verläufe. Ziehen Sie bei der Beweissicherung einen Zeugen hinzu, der bei Bedarf bestätigen kann, dass Sie keine Beweise manipuliert haben. Erstatten Sie dann Anzeige bei der Polizei. Wurde das Video auf einer Plattform veröffentlicht, können Sie auch die Plattformbetreiber informieren und zum Löschen des Videos auffordern.
Fazit
Deep Learning als Teilbereich der Forschung zu künstlicher Intelligenz hat ein großes Potenzial, um wirklich Nützliches hervorzubringen, etwa neue Wirkstoffe für Medikamente. Doch mit den Methoden aus der KI-Forschung ist es heute auch vergleichsweise einfach, Gesichter unbeteiligter Personen in bestehendes Videomaterial einzufügen. Mit solchen Porno-Deepfakes können Menschen diskreditiert, gemobbt oder erpresst werden. Solche Deepfakes lehren uns, nicht alles zu glauben, was wir im Internet sehen und hören.