2299844

Bundestagswahl: Koordinierte Manipulationsversuche auf Twitter

22.09.2017 | 17:00 Uhr |

Mit der Abstimmung über den Brexit und die US-Wahl ist die Manipulierbarkeit sozialer Medien auch in Deutschland in den Fokus des allgemeinen Interesses geraten. Eine Forschungsgruppe fand heraus, dass es bereits koordinierte Manipulationsversuche in sozialen Netzwerken vor der Bundestagswahl gab.

Gerade im Hinblick darauf, dass scheinbar ein großer Teil potenzieller Wähler noch nicht sicher ist, welche Partei die richtige ist, könnte man Angst bekommen, dass auch hierzulande der Ausgang der Wahlen möglicherweise von Social Bots zumindest mitentschieden wird.

Diese Angst resultiert aus einer großen Unsicherheit, denn die meisten befragten Experten können auch nicht so genau sagen, in welcher Größenordnung wir überhaupt mit Manipulationsversuchen zur Bundestagswahl rechnen müssen und was diese möglicherweise anrichten können.

Für uns Forscher im Propstop-Projekt ist die Aufdeckung verdeckter Propaganda-Angriffe in sozialen Netzwerken das Hauptziel und die Bundestagswahl ist ein wichtiger Testfall. Dabei ist aber nicht nur interessant, was Social Bots oder Trolle im einzelnen tun. Im Grunde ist es noch nicht einmal entscheidend, ob eine bestimmte Aktion von einem Social Bot oder einem Menschen durchgeführt wird. Für uns steht die Koordination oder Strategie im Vordergrund, die dahinter steht.

Wir gehen davon aus, dass ein einzelner Social-Media-Account ohne jede Organisation mit anderen Accounts nicht sehr viel bewirken kann, und zwar unabhängig davon, ob er ausschließlich von einem Menschen, nur von einem Bot oder auch hybrid bespielt wird.

Die genauen Wirkungen bestimmter Effekte in sozialen Netzwerken sind noch nicht sehr stark erforscht. Wir gehen aber davon aus, dass der wesentliche Zweck von Social Bots darin liegt, Aufmerksamkeit zu schaffen oder vorzutäuschen und Themen zu setzen. Möglicherweise werden auch längerfristige Ziele verfolgt, das dürfte aber zumindest für die bevorstehende Bundestagswahl keine großen Auswirkungen haben.

Was genau ist ein Social Bot?

Auch das ist nicht wirklich eindeutig festgelegt. Klar ist, dass es mittlerweile auf praktisch allen Computerplattformen eine unüberschaubare Anzahl von "Softwarehelfern" gibt, die alle Arten von einfach automatisierbaren Funktionen übernehmen. Von der einfachen Weckfunktion auf Smartphones bis zum Google-Dienst, der darauf hinweist, dass man bald starten muss, um den letzten Zug nach Hause zu erwischen, sind schon jetzt unzählige "Agenten" für uns tätig.

Und wenn wir uns beispielsweise die aktuellen Entwicklungen bei Automobilen ansehen, erleben wir zum Teil schon jetzt sehr viel durchgreifendere und komplexere Automatismen, die im Notfall etwa selbstständig eine Notbremsung einleiten oder auch einfach nur für uns einparken.

Dieses Merkmal der Teil- oder Vollautonomie ist eine wesentliche Grundlage für Social Bots und das andere ist in unseren Augen die aktive Kommunikation über soziale Medien.

Ein Agent, der nur Daten im Netz einsammelt, wäre also kein Social Bot, weil er nicht selbst sichtbar wird (genauere Ausführungen sind in unserem Arbeitspapier enthalten). Allerdings heißt Autonomie natürlich nicht, dass es sich um eigenständige Wesenheiten handelt. Es sind ja nach wie vor Programme, die von Menschen geschrieben, parametrisiert (mit passenden Daten bestückt) und auf das Internet losgelassen werden.

Die vorhandenen Schnittstellen, beispielsweise für Twitter und Facebook, sind recht einfach zu beherrschen, und es erfordert das informatische Wissen eines Oberstufenschülers (Informatikunterricht vorausgesetzt), solche Programme selber zu bauen und zu betreiben. Auch Social Bots sind also praktisch immer hybride Akteure, die letztlich oft nur einfach automatisierbare Funktionen übernehmen, die Menschen im Prinzip auch selber erledigen können, wenn sie genug Zeit zur Verfügung haben.

Sicherlich kann die sich immer weiter verbessernde Künstliche Intelligenz, getrieben von Machine Learning und probabilistischen Methoden wie Monte Carlo Tree Search, immer komplexere Aufgaben ausführen. Letztlich bedeutet das jedoch nur eine Verschiebung auf der Skala zwischen vollständig manuell und vollautomatisiert, denn die Intention, irgendwas Bestimmtes zu erreichen, die ja in der Definition von Social Bot gefordert ist, kommt direkt oder indirekt von Menschen.

Mit der Erkennung von Bots verhält es sich übrigens ähnlich: Durch die Berechnung zahlreicher Maße (feature-basierte Klassifikation) und den Einsatz von Machine Learning versuchen Programme automatisch abzuschätzen, ob es sich bei einem bestimmen Account eher um einen Bot oder einen Menschen handelt. Sicher sein kann man sich da aber nicht, sodass diese Entscheidung letztlich von Menschen getroffen werden muss (die sich auch irren können, wenn sich ein Mensch beispielsweise absichtlich so verhält, wie ein Bot das tun würde).

Wie das Zusammenspiel von technischen Erkennungsmethoden und menschlichen Entscheidungen bei der Aufdeckung von koordinierten Manipulationsversuchen funktionieren kann, zeigt beispielhaft eine Analyse, die wir als Projekt während des TV-Duells der beiden Spitzenkandidaten von CDU und SPD, Angela Merkel und Martin Schulz, am 03. September 2017 gemacht haben.

Für dieses Ereignis haben wir verschiedene Indikatoren zur Live-Analyse der Aktivitäten auf Twitter entwickelt. So haben wir uns unter anderem gezielt das Alter der aktiven Accounts angeschaut, insbesondere der Accounts, die sich an den viel genutzten Hashtags beteiligten. Natürlich waren #tvduell und #kanzlerduell sehr präsent. Diese Hashtags wurden auch schon in der Vorbereitung des TV-Duells auf Twitter genutzt.

In der ersten Stunde des Duells tauchte dann ein neues Hashtag massiv auf: #verräterduell . Gleichzeitig zeigten die Indikatoren, dass ein ungewöhnlich hoher Anteil von Nutzern mit neuen Accounts das Hashtag #kanzlerduell verwendeten. Bei genauerer Analyse ließ sich dann zeigen, dass die Nutzung des Hashtags #kanzlerduell stark mit der Nutzung des Hashtags #verräterduell korrelierte. Fast jeder Post, der # kanzlerduell enthielt, nutze auch das Hashtag #verräterduell .

Eine noch genauere Analyse zeigte, dass diese Aktivität ziemlich genau um 19:30 Uhr startete und um etwa 20:30 endete. Es war also versucht worden, das bereits bekannte #kanzlerduell zu nutzen, um #verräterduell ins Gespräch und in die Twitter Trending Topics zu bringen.

Noch am Abend nach unserer Analyse bestätigte ein "Insider-Bericht" auf Buzzfeed , was wir beobachtet hatten. Eine Gruppe hatte den koordinierten Angriff geplant und mit Unterstützung von Gruppenmitgliedern und extra angelegten Accounts umgesetzt.

Bots mit Social-Bot-Jagdprogrammen aus der Welt schaffen?

Eine Frage, die sich geradezu aufdrängt, wenn es um teilautomatisierte Manipulation in sozialen Netzwerken geht, ist, ob man das Problem nicht durch entsprechende Social-Bot-Jagdprogramme in den Griff bekommen kann. Natürlich wäre eine vollständig manuelle Analyse ohnehin viel zu zeitaufwändig und arbeitsintensiv, um dem Geschehen schnell genug folgen zu können. Automatisierung wird also schon eingesetzt, aber im Zweifelsfall von Menschen initiiert und gesteuert, so wie auch gemeldete Hass-Kommentare auf Facebook zumindest teilweise von Menschen überprüft werden.

Die weit verbreitete Angst von Menschen, von völlig autonomen "Meinungsrobotern" oder anderen Computersystemen übernommen oder ersetzt zu werden, erscheint in Relation zum tatsächlichen Geschehen etwas naiv.

Andererseits kann man auch nicht erwarten, dass es einfach wäre, gute Social-Bot-Jagdprogramme zu erstellen. Ein Problem liegt dabei in der Heterogenität der Social Bots. Die Programmierschnittstellen, die Menschen nutzen, um beispielsweise automatisch Tweets abzusetzen, geben nur einen Rahmen vor. Wie sich ein bestimmter Bot verhält, ist in starkem Maße von der Kreativität und den Fähigkeiten seiner Programmierer abhängig. Daher kann man auch nicht einfach ein Jagdprogramm schreiben oder mit Machine Learning trainieren und dann erwarten, dass es auf absehbare Zeit funktioniert. Alles entwickelt sich weiter, auch Social Bots, und ähnlich wie bei Computerviren müssen technische Gegenmaßnahmen immer der neuen Bedrohung angepasst werden.

Allerdings ist es ja nicht so, dass es in Richtung Bot-Erkennung keine Aktivität gibt. Gerade die betroffenen Plattformbetreiber (vor allem Twitter, aber mittlerweile auch Facebook) sind da sehr aktiv und greifen auch schon mal durch, wie im Vorfeld der französischen Präsidentenwahl. Im Gegensatz zu Ansätzen von dritter Seite verfügen sie über deutlich mehr Daten und auch die Möglichkeit, Zwangsmaßnahmen (wie die Löschung von Accounts) durchsetzen zu können.

Abschließend stellen wir fest, dass es zumindest auf Twitter organisierte Manipulationsversuche im Rahmen des Bundestagswahlkampfes gegeben hat. Gleichzeitig hat sich die öffentliche Wahrnehmung von sozialen Netzwerken und auch von möglichen Manipulationen darin stark verändert. Die Bevölkerung, die Medien, die Wissenschaft und auch die Regierungsorgane sind aufmerksamer und kritischer geworden.

Das ist sicher ein guter Weg, denn Internet Awareness und IT-orientierte Bildung, die die großen, durch die Digitalisierung bewirkten Veränderungen unserer Lebenswelt begleiten, verringern Unsicherheit und erschweren damit manipulative Eingriffe in die demokratische Willensbildung.

0 Kommentare zu diesem Artikel

PC-WELT Marktplatz

2299844