2223927

Der Mythos Künstliche Intelligenz

27.09.2016 | 14:18 Uhr |

Wenn wir von der Künstlichen Intelligenz alsTechnologie sprechen, geht es um selbstlernende Programme, um Deep-Learning-Algorithmen. Und letztendlich auch um Datenmonopole.

Weit entfernt jeglicher Zivilisation, umringt von tiefgrünem, undurchdringlichem Wald lebt Nathan allein mit seinen Androiden in seinem hochtechnisierten architektonisch sterilen Wohnsitz. Überzeugt davon, dass er die Intelligenz des Menschen in ihrer Komplexität mit der maschinellen erreichen kann, schafft er es, seinen Robotern Bewusstsein, Emotionen, Sexualität und freien Willen einzuhauchen. Er testet seine Ergebnisse, indem er den Software-Entwickler Caleb zu sich einlädt. Caleb verliebt sich in den Fembot Ava und sein Turing-Test scheitert. Calebs Nachgiebigkeit führt zu Avas Befreiung und Nathan findet seinen Tod, indem er rückwärts in das offene Messer seiner intelligenten Sexpuppen läuft. Das Metall gleitet in seinen organischen Körper wie in Butter. Ava, die nun ein Menschenleben auf dem Gewissen hat, ist jetzt frei und wandelt unerkannt unter uns.

(Beschreibung der letzten Szene aus dem Film „Ex Machina“)

Der Mythos ist eine Projektionsfläche für die Hoffnungen und Ängste des Menschen (vgl. Eco, Umberto, 1984 original: 1964: „Apokalyptiker und Integrierte – Zur kritischen Kritik der Massenkultur“, Verlag S. Fischer ).

Künstliche Intelligenz wie in „Ex Machina“ ist ebenso ein Mythos, auf den sich neben Faszination vor allem die Ängste der Menschen konzentrieren. In Marketing und Journalismus wird sich dies aktuell zu Nutzen gemacht, um entweder zu warnen oder zu begeistern.

Bei der Technologie, von der in diesen Fällen gesprochen wird, handelt es sich nicht unbedingt um Künstliche Intelligenz, wie wir sie beispielsweise aus dem Science-Fiction-Thriller „Ex Machina“ kennen - es handelt sich um selbstlernende Programme; um Deep-Learning-Algorithmen.

Solche selbstlernenden Systeme strukturieren große Datensätze in neuronale Netzwerke. Dieser Prozess lässt sich an einem einfachen Beispiel erklären: Ein Datensatz aus Bildern, die Autos aus verschiedenen Perspektiven darstellen, soll in spezifische Gruppen geordnet werden. Das bedeutet: Autos von vorn in eine Gruppe, Autos von hinten in eine andere, von der Seite in eine weitere und so weiter.

Der Algorithmus wird in diesem Prozess trainiert, d.h. ein Datenanalyst hilft dem Programm, einzelne Bilder den verschiedenen Gruppen zuzuordnen. Daraus lernt das Berechnungsverfahren und kann nach einigen Iterationen Autobilder selber erkennen und einer Gruppe zuordnen und ist somit in der Lage, selbstständig zu erkennen, aus welcher Perspektive ein Auto dargestellt wird.

Dieser Prozess wird als „Supervised Training“ bezeichnet, und die meisten Algorithmen, die einer speziellen Aufgabe zugewiesen sind, werden auf diese Art und Weise entwickelt. Der Vorteil an dieser Art der Entwicklung besteht darin, dass der Algorithmus auch während der Anwendung trainiert wird. Jedes Mal, wenn der Algorithmus eine Datei klassifiziert und der Nutzer der Software die Klassifizierung verifiziert oder falsifiziert, wird der Algorithmus weiter verbessert.

In der Medizin wird beispielweise Diagnose-Software auf der Grundlage von Deep-Learning-Algorithmen eingesetzt, um krebsartige Veränderungen in radiologischem Bildmaterial zu identifizieren. Der Arzt lässt beispielsweise eine Mammographie analysieren und der Algorithmus erkennt, ob und wo ein Mamma-Karzinom (Brustkrebs) vorliegt. Hat der Algorithmus den Krebs erkannt (Position, Größe usw.), bestätigt der Arzt dieses Ergebnis oder gibt dem Programm an, wo er selbst den Krebs vermutet. Dadurch wird der Algorithmus weiter trainiert, so dass seine Fehlerrate nach mehreren Wochen der Anwendung auf unter 1 Prozent sinkt. Damit ist der Algorithmus dem Menschen weit voraus.

Datenwissenschaftler sind mit einer größeren Datenbank und einem komplexeren neuronalen Netzwerk auch in der Lage, Algorithmen mit dem „Unsupervised Training“ zu entwickeln. Bei diesem Prozess lernt das Programm ohne Eingreifen von Datenanalysten zu erkennen, was es auf Bildern sieht. Solche Algorithmen erreichen bisher noch eine höhere Fehlerrate in der Bilderkennung als die unter Aufsicht trainierten Algorithmen. Sie haben allerdings den Vorteil, dass es keinen Menschen braucht, der eine Datenbank von beispielsweise 10.000 Bildern klassifiziert.

Hierbei ist erstaunlich, dass diese Form der Strukturierung in neuronale Netze dem menschlichen Lernen abgeleitet wurde. Dadurch sind Programme in der Lage, während der Entwicklung zu lernen und in der Anwendung zu erkennen. Die Einsatzmöglichkeiten von Deep-Learning-Algorithmen erstrecken sich von (Bewegt-)Bild- über Muster- bis hin zu Sprach- und Texterkennung in verschiedenen Branchen und Unternehmen.

Jeremy Howard (CEO Enlitic und ehemals Kaggle) prognostizierte 2014, dass innerhalb der nächsten Jahrzehnte der gesamte Dienstleistungssektor durch selbstlernende Software ersetzt werden kann. FUSE-AI hat sich seit mehreren Monaten auf die Entwicklung solcher Software spezialisiert und unterstützt diese Einschätzung. Wie sich auch bei Konferenzen in London und San Francisco andeutet, erscheint Jeremy Howards Prognose akkurat: Deep-Learning-Algorithmen wurden in den letzten vier Jahren so weit entwickelt, dass sie die Grundlage für alle wichtigen Fähigkeiten besitzen, die es für den Einsatz im Dienstleistungssektor braucht.

Applikationen von Deep-Learning-Algorithmen bergen nicht die Gefahr in sich, ein Bewusstsein, geschweige denn einen eigenen Willen zu entwickeln. Es geht hier um mathematische Berechnungsverfahren, die Daten klassifizieren und nicht um Programme, die Menschlichkeit imitieren.

Bei Künstlicher Intelligenz mit menschlich geartetem Bewusstsein, Emotionen und freiem Willen handelt es sich ohnehin um philosophische Konstruktionen des Menschen, die auf eine Künstliche Intelligenz projiziert werden.

Vielmehr sollte bedacht werden, dass diese Technologie im Verborgenen weiterentwickelt und entgegen dem (Kriegs-)Recht genutzt wird.

Jay Tuck hat vor einigen Wochen sein Buch „Evolution ohne uns“ veröffentlicht . Er berichtet von militärischen Drohnen, die durch Deep-Learning-Algorithmen gesteuert werden. Im entscheidenden Moment treffen die Drohnen die Entscheidung zu töten ohne eine menschliche Instanz hinzuziehen zu müssen. Solche sich selbst steuernden Drohnen werden angeblich bereits vom amerikanischen Militär eingesetzt.

Es handelt sich hier um mathematische Berechnungsverfahren, die keinen freien Willen entwickeln können. Man kann also nicht davon ausgehen, dass solche Drohnen ihr Fortbestehen nur mit der Auslöschung der Menschheit sichern oder alle Menschen als organische Batterien für das Zeitalter der Maschinen versklaven wollen. Vielmehr geht es um Algorithmen, die von Menschen dazu programmiert werden, eine spezielle Aufgabe zu erfüllen, d.h. sie lernen nur im Rahmen dieser vorprogrammierten Aufgabe. Das sind Programme, die auf der Grundlage von neuronalen Netzwerken in der Lage sind, Daten zu klassifizieren.

Vorstellbar ist allerdings, dass eine solche „Killer-Drohne“ falsch programmiert wird und irrtümlich unzählige Menschen umbringt. Dieses politische Problem sollte nicht ignoriert werden.

Deswegen sollte man sich von den mythischen Konstruktionen Künstlicher Intelligenz mit Bewusstsein und freiem Willen lösen und sich mit den Instrumenten der Demokratie der verantwortungsvollen Entwicklung dieser Technologie widmen. Dies bedarf jedoch einer Form des Kapitalismus, die demokratisch kontrolliert wird, so dass Unternehmen und Regierungen im Sinne der bürgerlichen Interessen transparenter arbeiten müssen. Freihandelsabkommen wie TTIP und CETA steuern eher in eine entgegengesetzte Richtung.

Die Grundlage für Deep-Learning-Algorithmen sind große Datensätze. Wer ein Datenmonopol besitzt, hat auch das Ressourcenmonopol für die Entwicklung von Deep-Learning-Software.

Vor allem Google hat durch verschiedene Ereignisse in der Vergangenheit (etwa durch die Zusammenarbeit mit der NSA in der Entwicklung von PRISM ) einen schlechten Ruf durch seinen Umgang mit Benutzerdaten erlangt.

Damit Menschen von Deep Learning beispielsweise durch verbesserte Medizin profitieren können, sollten neue Lösungen etwa für einen demokratischen oder sozial-ökomischen Umgang mit anonymisierten Daten entwickelt werden.

Eine Art von „Data Trust“, wie ihn Neil Lawrence von der University of Sheffield vorschlägt, ist eine Lösung genauso wie OpenAI , eine Non-Profit-Organisation, gegründet von Elon Musk, die sich der Entwicklung von Open-Source-Software mit Deep Learning widmet.

Solche Unternehmen gleichen die Monopole von Google und anderen Global Playern aus.

Sprechen wir also nicht weiter von „1984“, „Skynet“, „Matrix“, „I Robot“, „Ex Machina“, Künstlicher Intelligenz, Bewusstsein und freiem Willen.

Sprechen wir doch lieber vom Datenmonopol (= Machtmonopol), von nachhaltiger Wirtschaft und gerechter Politik sowie von den schrecklichen und wundervollen Implikationen von Deep Learning!

0 Kommentare zu diesem Artikel
2223927