2416552

Facebook: Neue Details zum Terror-Video von Christchurch

19.03.2019 | 11:06 Uhr | Hans-Christian Dirscherl

Facebook hat erschütternde Details zu dem Video veröffentlicht, das den Terroranschlag von Christchurch in Neuseeland zeigt.

Facebook hat neue Details zu dem Video veröffentlicht, das den Terroranschlag von Christchurch in Neuseeland vom 15. März 2019 zeigt. Die Videoaufnahme hatte der aus Australien stammende Attentäter während seines Amok-Laufs live mit einer an seinem Körper befestigten Go-Pro-Kamera auf Facebook gestreamt.

Den Originalvideostream des Attentäters will Facebook binnen Minuten entfernt haben, nachdem es davon Kenntnis bekommen hat. Der Livestream während des Amok-Laufs wurde laut Facebook weniger als 200 Mal betrachtet. Keiner dieser Zuschauer meldete aber das Video während des Livestreams bei Facebook. Erst 29 Minuten nach dem Beginn des Livestreams und somit 12 Minuten nach dem Ende der Echtzeit-Übertragung (das Video war 17 Minuten lang) meldete der erste Nutzer das Video bei Facebook.

Bis Facebook das Video dann auf Bitten der neuseeländischen Polizei entfernte, war es um die 4000 Mal angeschaut worden. Zu diesem Zeitpunkt hatte bereits ein Internetnutzer auf dem umstrittenen Bilder- und Videoforum 8chan einen Link eingestellt, der zu einer Kopie des Attentat-Videos führte, die auf einer File-Sharing-Plattform lag.

Facebook entfernte nicht nur das besagte Video, sondern auch die Benutzerkonten des Attentäters auf Facebook und Instagram. Facebook geht auch gegen alle Nachahmer vor. Facebook verhindert nach wie vor, dass das Video auf seinen Seiten erscheint beziehungsweise entfernt es sofort, wenn es entdeckt wird. Facebook verwendet hierzu sowohl technische Maßnahmen als auch die Hilfe von Menschen. Zudem arbeite Facebook mit der neuseeländischen Polizei zusammen, um diese bei ihren Untersuchungen zu unterstützen. Details hierzu will Facebook aber nicht mitteilen, um die polizeilichen Ermittlungen nicht zu gefährden.

Videos, die dem Original-Attentatsvideo ähneln, werden mit Hilfe von Algorithmen automatisch erkannt und sofort von Facebook und Instagram entfernt. Schwieriger ist es für Facebook dagegen Videos automatisch erkennen und entfernen zu lassen, die das Originalvideo am Bildschirm abgefilmt haben. Facebook versucht gerade seine Algorithmen unter anderem mit Audio-Technik so weiter zu verbessern, dass diese Kopien ebenfalls automatisch erkannt werden.

In den ersten 24 Stunden nach dem Attentat entfernte beziehungsweise stoppte Facebook weltweit rund 1,5 Millionen Kopien des Terrorvideos. Davon wurden 1,2 Millionen bereits beim Upload blockiert – diese bekam somit niemand zu Gesicht.

Auch interessant: Youtube & Facebook löschen Millionen extremistische Inhalte

PC-WELT Marktplatz

2416552