2505139

Künstliche Intelligenz: Sieben Hindernisse, die wir überwinden müssen

05.05.2020 | 09:31 Uhr | Henning Beck

Künstliche Intelligenz ist heute noch so dumm wie vor 30 Jahren. Doch heute ist sie schneller dumm. Wenn sie diese sieben Hindernisse nicht überwindet, wird sie scheitern und wir werden in einen neuen „KI-Winter“ eintreten.

„Kniet nieder ihr Menschen, die Computer übernehmen die Macht!“, titelte der Spiegel im Februar 2011. Was war passiert? IBM hatte mit seinem „Watson“ getauften Supercomputer im TV-Quiz Jeopardy! die weltbesten menschlichen Spieler vernichtend geschlagen.

2016 zerstörte Google mit seinem Alpha-Go-Programm die Hoffnungen von Lee Sedol, einem der weltweit besten Go-Spieler. Im November 2019 beendete dieser seine aktive Go-Karriere, offenbar demoralisiert : „Es gibt da einen Gegner, der einfach nicht besiegt werden kann.“

Wie es wohl in Zukunft weitergeht? Werden uns Maschinen schon in wenigen Jahren das Denken abnehmen? Droht eine Massenarbeitslosigkeit von nicht mehr benötigter menschlicher Arbeitskraft? Macht es überhaupt noch Sinn, Computerspiele zu spielen?

Gemach, auch bei Künstlicher Intelligenz (KI) wird nicht alles so heiß gegessen wie es gekocht wird. So beeindruckend ihre Entwicklung ist, krankt KI doch noch an vielen Stellen. Gelingt es uns nicht, diese Schwächen auszumerzen, werden sich viele Zukunftsprognosen in der Rückschau als große Luftnummern entpuppen.

1. Selbstlernende Systeme sind zu datenintensiv

Ein Großteil aktueller „Künstlicher Intelligenz“ arbeitet mit Methoden selbstlernender Systeme. Das Prinzip ist einfach: Füttere ein sich selbst organisierendes System mit möglichst viel Dateninput, so dass sich das System möglichst gut an den Datensatz anpassen und seinen Output optimieren kann.

Ähnlich wie es auch im Gehirn passiert, wenn Nervenzellen ihre Verbindungen untereinander anpassen, um besser auf einen Reiz reagieren zu können, kann auch ein virtuelles neuronales Netz auf einen Datenreiz reagieren. Präsentiert man diesem System millionenfach Papageienbilder, wird es die typischen Papageienmuster extrahieren und optimieren. In einer Welt aus unendlich vielen Daten könnte ein solches System alles lernen.

Das Problem ist: Wir haben nicht so viele Daten. Im Gegenteil, denn die wichtigsten Entscheidungen müssen wir oft auf Grundlage einer ganz schlechten Datenbasis treffen. Beispiel: Sie wollen heiraten. Sie können nicht einen „Big Data“-Ansatz wählen und erstmal drei Millionen potenzielle Lebenspartner „testen“, bevor Sie anschließend den entscheidenden Antrag machen. Zumindest kommt das gesellschaftlich nicht gut an.

Die allermeisten wichtigen Probleme unserer Welt sind „Small Data“-Probleme: welchen Job man annimmt, welches Haus man kauft, ob man Kinder haben will oder nicht. Wo es keine ausreichenden Daten gibt, kann man nur schlecht optimieren.

Noch nie wurde diese Schwäche auffälliger als derzeit: Wir haben nur eine kleine Datenbasis, treffen aber trotzdem weitreichende gesellschaftliche Entscheidungen, um die Coronavirus-Pandemie einzudämmen. Würden wir heute noch auf ausreichend Daten warten, um eine statistisch valide Entscheidung zu treffen – das Virus hätte uns vielleicht schon längst überrollt. Wir brauchen Systeme, die das „ad hoc“-Lernen beherrschen, das mysteriöse „Lernen auf den ersten Blick“. Wie lange hat es zum Beispiel gedauert, bis Sie das Wort „Selfie“ verstanden haben? Mussten Sie das Wort tausendfach wiederholen oder hat es beim ersten, zweiten Mal „Klick“ gemacht?

Nebenbei: Dass selbstlernende Systeme immer datenintensiver werden, ist ein handfestes Problem in der akademischen Forschung. Denn mit dem zunehmenden Energiehunger neuer KI-Systeme wächst auch die Stromrechnung. Das können sich einfache Doktoranden kaum noch leisten. Um ein modernes selbstlernendes KI-System zu trainieren, liegen die Rechenkosten bei einigen zehntausend Dollar . Am Ende frisst die KI-Forschung ihre eigenen Kinder, wenn sich die Entwicklung monopolisiert. Dann auf die Philanthropie von marktbeherrschenden KI-Giganten zu vertrauen, würde die letzte Hoffnung sein, dass KI die Welt verbessern wird. Keine guten Aussichten.

2. KI unterscheidet nicht zwischen Ursache und Wirkung

Im Jahre 2013 beendete Google still und heimlich ein Programm, das 2008 noch vollmundig als „Nowcasting“ angekündigt worden war: Googleflu, ein Analysetool, das anhand von Internet-Suchanfragen in Echtzeit den Verlauf einer Grippewelle vorhersagen sollte - je mehr Menschen nach Grippe-Stichwörtern suchen, desto mehr sind wohl auch infiziert.

Eine tolle Idee, doch die war falsch. Die Grippewelle 2012/2013 ließ Googleflu spektakulär scheitern. Denn natürlich können auch Kerngesunde aus anderen Gründen nach Grippe-Stichwörtern suchen. Bei Googleflu beging man einen Systemfehler, der noch heute vielen KI-Ansätzen innewohnt: Korrelation ist keine Kausalität. So korreliert beispielsweise der globale Temperaturanstieg erschreckend einträchtig mit der Abnahme an aktiven Piraten. Doch ein Mensch erkennt, dass es sinnlos wäre, mehr Piraten auf die Weltmeere zu schicken, um den Klimawandel zu bekämpfen.

Wir können Ursachen von Korrelationen auseinanderhalten, weil wir ein Bewusstsein haben. Wir können uns mental in jede mögliche Rolle eines Verursachers hineinversetzen und simulieren, wie es wohl wäre, wenn man dieser Verursacher wäre. Solche geistigen Simulationen werden im Gehirn in eigenen Netzwerken vermittelt, die immer wieder „Was wäre, wenn“-Hypothesen aufstellen. Anschließend testen wir die Hypothese und gleichen sie mit der Wirklichkeit ab.

Wenn es stimmen sollte, dass man ein Bewusstsein haben muss, um Ursachen zu erkennen, wäre das eine harte Nuss, die KI knacken müsste: Sie müsste sich selber bewusst werden – und wie das gehen soll, kann noch nicht mal ein Neurowissenschaftler beantworten.

Übrigens: Wer jetzt auf die Seite von Googleflu surft , wird von Google eingeladen, sich an modernen Analyseverfahren zu beteiligen. Genau das ist der richtige Ansatz: Es geht nicht darum, die Technik zu verteufeln, sondern ihre Grenzen erst zu erkennen, um sie zu verschieben. Genau deswegen schreibe ich diesen Artikel.

3. Daten sind immer retrospektiv

„When you collect everything, you understand nothing”, soll Edward Snowden gesagt haben. In diesem Punkt hat er völlig recht, denn Daten haben immer nur eine Vergangenheit, nicht immer eine Zukunft. Und wer nur in die gestrigen Daten zurückschaut, versteht nicht, was auf ihn zukommt.

Genau aus diesem Grund fehlte beim Ausbruch der Coronakrise das Klopapier. Lieferketten und Bestellvorgänge sind bei Konsumgütern längst durch Computersysteme optimiert: Was oft gekauft wird, wird oft nachbestellt, damit keine Lücken entstehen. „Predictive analytics“ heißt dieser Datenauswertebereich, doch wirklich vorhersagend ist dieses Analysetool nie gewesen, denn die Daten für die Analyse kommen immer aus der Vergangenheit. Hätte man sich vorher pro-aktiv überlegt, was wäre, wenn es zu einem Virusausbruch käme, hätte man schon vor Wochen vorsorglich Klopapier bestellen und dann verkaufen können. Übrigens: Ein deutscher Discounter hat das gemacht, als er sich schon vor Monaten überlegte, dass Anfang März (wenn der Höhepunkt der Grippewelle und die beginnende Urlaubssaison zusammenfallen) ein guter Zeitpunkt wäre, Desinfektionsmittel anzubieten.

Gute KI sollte deswegen nicht nur analysierend, sondern auch gestaltend sein. Wahrscheinlich ist dafür eine Körperlichkeit notwendig: Nur wer mit seiner Umwelt aktiv und (im Wortsinne) manipulierend in Kontakt treten kann, kann seine Hypothesen testen und dadurch die Welt verstehen.

4. Selbstlernende Systeme sind oft überangepasst

Eines der stärksten derzeitigen Spielprogramme ist Googles „Alphazero“, ein System, dass ein Spiel (zum Beispiel Schach) millionenfach gegen sich selbst spielt, bis es übermenschliche Fähigkeiten entwickelt. Doch es bleibt an das trainierte Spiel angepasst. So sehr, dass das System bei einer kleinen Variation der Regeln sofort an Grenzen stößt.

Ein praktisches Beispiel ist das Fischer-Random-Schach: Schon lange kann kein Mensch mehr gegen das beste Schachprogramm der Welt gewinnen, eigentlich ist das moderne Schach ausgelutscht und langweilig (die Remis-Quote bei Profispielern liegt bei 60 Prozent).

Doch was würde wohl passieren, wenn man die Startaufstellung der Figuren auf dem Brett zufällig ändert? Plötzlich verlieren alle bisherigen Schachstrategien ihre Gültigkeit. Was zählt ist das zugrundeliegende „Schachschema“: Wie setzt man den König matt? Menschen können schon nach wenigen Partien zu sehr starken „Fischer-Random-Schachspielern“ werden. Eine KI müsste man erst wieder aufwändig trainieren.

Ein guter KI-Test wäre deswegen ist kein simpler Turing-Test, bei dem ein Chatbot menschliche Sprache simulieren soll (das ist kinderleicht), sondern eine Partie „Schlag den Raab“: ein Spielemarathon, bei dem es darauf ankommt, in möglichst kurzer Zeit, Regeln zu erkennen.

Diese Anpassungsfähigkeit nennt man in der Neuropsychologie „Schemalernen“: ein Konzept extrem schnell entwickeln und auf andere Fragestellungen anwenden. Wir wissen, dass es dafür eine ganze Batterie an verschiedenen Hirnarealen braucht, die sowohl das Selbstbewusstsein als auch räumliches Vorstellungsvermögen, Gedächtnis und das Simulieren von Hypothesen steuern.

Auch eine gute KI muss in der Lage sein, ein Schema zu entwickeln, um am Ende mehr zu erkennen als einen optimierten Datensatz. Aus der Neurowissenschaft wissen wir, dass das Gehirn dafür Prinzipien des Bayes’schen Schlussfolgerns und der symbolischen Abstraktion nutzt. Leider fristen diese in der KI-Entwicklung derzeit ein Schattendasein, weil sich alle Welt auf „deep learning“ und „künstliche neuronale Netze“ stürzt, von denen wir wissen, dass sie prinzipielle Probleme bei Verständnisprozessen haben und am Ende wie eine nicht nachvollziehbare Blackbox funktionieren.

5. KI optimiert Regeln, sie stellt keine auf

Wenn Sie mit einem Kind von vielleicht 5 Jahren spielen, wird Ihnen auffallen, wie Menschen die Welt verstehen: Sie brechen Regeln und schauen dann, was passiert. Wer immer nur die Regeln befolgt, wird niemals erkennen, wozu diese Regeln gut sind und ob es vielleicht bessere Regeln geben könnte.

Nebenbei: Dass man bei Spielen immer gewinnen muss, ist ein Mythos, auf den nur IT-Nerds aus dem Valley kommen können. Oder wie gewinnen Sie beim Spielen mit Playmobil, mit Lego, mit Dinosauriern, Puppen oder Kuscheltieren? Bei den wichtigsten Spielen geht es nicht um das Befolgen von Regeln, sondern um das Aufstellen von neuen.

In unserer geistigen Entwicklung ist dieses Regelbrechen ein enorm wichtiger Bestandteil, der die Grundlage unserer Kultur bildet: die Pubertät. In dieser Phase werden viele Bereiche des Gehirns so umgebaut, dass sich Bewertungsrahmen und Regelinterpretationen ändern. Das ist für Außenstehende durchaus nervig, aber enorm wichtig. Bedenken Sie die Alternative: Ohne Pubertät würden wir immer noch in der afrikanischen Savanne sitzen und niemals unsere Kultur voranbringen. Denn wir würden nichts in Frage stellen.

KI macht hingegen das Gegenteil: Sie pubertiert nicht. Sie optimiert Regeln statt sie zu brechen. Zum Glück, denn das wäre ein sehr schlechtes Softwareprodukt. Wer würde ein System kaufen, das uns fortwährend widerspricht? Man hat also die Wahl: Ein System, das Regeln perfekt optimieren kann – dafür kontrollierbar ist. Oder ein System, das Regeln auch versteht und neue entwickelt – dafür in Teilen jedoch unkontrollierbar bleibt.

6. KI wird gehypt

Neulich lief ich durch meinen Supermarkt und entdeckte - eine Zahnbürste mit Künstlicher Intelligenz. Ich habe keine Ahnung, ob man fürs Zähneputzen überhaupt intelligent sein muss, aber immerhin: Manch einer zahlt die paar Hundert Euro für die intelligente Zahnbürste.

Natürlich hat das, was technisch in einer Zahnbürste machbar ist, mit dem Begriff der Künstlichen Intelligenz wenig zu tun. Im Grunde habe ich überhaupt noch nirgends eine „Künstliche Intelligenz“ gesehen. Stattdessen: gute Mathematik, clevere Regressionsmodelle und Statistik. Mit echter Intelligenz, geschweige denn echten Denkprozessen, hat das wenig zu tun.

Allerdings verschlimmert ein solches Overselling die öffentliche Wahrnehmung einer zweifellos wichtigen Technologie. Denn wer zu viel (oder Falsches) verspricht, kompromittiert die gesamte KI-Bewegung. So wie der chinesische Wunderchatbot „Amy Ingram“, der schon 2014 erstaunlich gut menschliche Befehle entgegennehmen, Termine organisieren und E-Mails verschicken konnte. Doch leider kam heraus: Das Programm war ein Etikettenschwindel. Nicht KI, sondern schlechtbezahlte Menschen verbargen sich hinter der Oberfläche, die die nervige Büroarbeit erledigten.

An dieser Stelle zitiere ich den IT-Gründer Gregory Koberger : „Wie man ein KI-Start-up gründet? 1. Heuere eine Truppe Menschen zu billigsten Löhnen an, die vorgeben, eine Künstliche Intelligenz zu sein, die vorgibt, ein Mensch zu sein. 2. Warte, bis Künstliche Intelligenz erfunden ist.“

Gute KI wird nicht entstehen, wenn man sich auf die Marketingversprechen von unausgegorener Software verlässt – genauso wenig wie übrigens auf die bildstarken Hollywood-Prophezeiungen, die die Geschäftsmodelle der Firmen 500 Kilometer weiter nördlich popkulturell unterfüttern.

7. KI kann nicht alles optimieren

Konkrete Frage: Wie glücklich sind Sie gerade? Oder wie gesund? Ist Ihnen Freiheit oder Sicherheit wichtiger? Welche Charaktereigenschaft schätzen Sie am meisten?

Es gibt viele Fragen, die sich nicht in Zahlen fassen lassen. Doch wenn es nichts zu fassen gibt, gibt es auch nichts zu optimieren. Das wäre dann das Ende von KI, der ultimativen Optimierungsmaschine. Die mag helfen, wenn das Umfeld klar und statisch ist. Doch wenn sich die Dinge ändern, neue Regeln aufgestellt werden oder es schlicht und einfach nichts zu messen gibt, war es das mit der KI-Herrlichkeit. Zumindest für die Technik, die wir jetzt haben.

Ein oft vorgetragenes Argument, diesem Problem zu begegnen, lautet: Mit Quantencomputern werden wir in der Lage sein, viel schneller selbst schwer greifbare Probleme zu lösen. Doch Quantencomputer ändern nichts an der prinzipiellen Einfältigkeit eines KI-Systems. Auch Quantencomputer müssen Daten optimieren.

Nebenbei: Die prinzipielle Architektur von Quantencomputern eignet sich am besten für Modellierungen, ganz ähnlich wie es bei selbstlernenden Systemen jetzt schon der Fall ist. Doch damit würde eine dumme Technik einfach nur schneller gemacht werden. Wenn ich blitzschnell auf die Zugspitze klettern kann, war das ja auch nicht der erste Schritt auf dem Weg zum Mars, sondern das Ende der Reise.

Um die Reise zu guter KI nicht zu beenden, sollte man sich von der Idee verabschieden, dass die Zukunft in den Daten liegt. Die Zukunft liegt hingegen in der Interpretation von Daten. Dabei kann uns KI vielleicht helfen, nicht mehr und nicht weniger. Bis sie uns ersetzen wird, bleibt es ein weiter Weg.

Bis dahin gilt: Jeder, der sein Gehirn benutzt, wird unersetzbar bleiben – KI hin oder her.

KI: Der nächste Schritt in der menschlichen Evolution

Künstliche Intelligenz: Wie und wo Roboter lernen

Künstliche Intelligenz – eine Standortbestimmung

So unterscheiden sich Machine Learning, KI und Deep Learning

PC-WELT Marktplatz

2505139