2454999

Chatbot Tay: Taylor Swift wollte Microsoft verklagen

11.09.2019 | 15:59 Uhr | Denise Bergert

Vor drei Jahren geriet ein KI-Experiment von Microsoft außer Kontrolle. Damals drohte Popstar Taylor Swift sogar mit einer Klage.

Vor mehr als drei Jahren startete Microsoft im März 2016 mit Tay eine Chatbot-KI auf dem Micro-Blogging-Dienst Twitter. Tay sollte sich so verhalten wie ein weiblicher Teenager aus den USA und Fragen der Twitter-Nutzer mit Smalltalk beantworten. Tay wurde von den Entwicklern mit Zitaten aus Büchern, Filmen und Songs gefüttert. Je mehr Nutzer sich mit Tay unterhalten, umso intelligenter sollte der Chatbot werden – zumindest in der Theorie, denn Microsoft hatte seine Rechnung ohne die Nutzer der berüchtigten Foren 4Chan und 8Chan gemacht.

Die starteten, kurz nachdem Tay auf Twitter online ging, eine groß angelegte Troll-Attacke auf den Chatbot. Sie überschütteten Tay in Chat-Gesprächen mit sexistischen und rassistischen Äußerungen – so lange, bis Tay annahm, dass diese Art von Meinung die Norm sei. Aus dem netten Teeny wurde ein sexistischer Nazi. Tay geriet derart außer Kontrolle, dass die KI von Microsoft kurz nach dem Launch wieder offline genommen wurde.

Wie Microsoft-Präsident Brad Smith in seinem neuen Buch schreibt , bekam es das US-Unternehmen bei seinem Experiment nicht nur mit wütenden Menschenrechtlern, sondern auch mit Popstar Taylor Swift zu tun. Die Sängerin fand, dass Tay nach ihrem Vorbild programmiert worden sei und drohte Microsoft mit einer Klage – noch bevor Tay durch die Troll-Attacke zum Hitler-Fan wurde. Da Tay jedoch schnell wieder eingestellt wurde, hatte sich damit auch die Beschwerde des Popstars erledigt. In China ist die gleiche KI als XiaoIce bereits seit Jahren als Chatbot sehr beliebt. Sie blieb von einer Troll-Attacke verschont.

PC-WELT Marktplatz

2454999