Im März 2018 veröffentlichte die Zeitschrift Wired ein Interview zwischen dem Herausgeber von Wired und dem französischen Präsidenten Macron über Künstliche Intelligenz (KI) . Als ich auf Twitter schrieb, dass sich hier zwei Leute über KI unterhalten, die nichts darüber wissen, schrieb der Herausgeber zurück, dass er nur Journalist sei. Nun, er wählte Macron, um ihm Fragen zur Künstlichen Intelligenz zu stellen. Woher sollte er davon etwas wissen?
Der Hype um die KI gerät außer Kontrolle. Es spielt keine Rolle, was Stephen Hawking oder Elon Musk über KI sagen, weil sie nichts über Künstliche Intelligenz wissen. Niemand wird mich zu Physik oder Elektroautos befragen. Die Öffentlichkeit bekommt ein falsches Bild von Künstlicher Intelligenz. Die KI wird uns nicht bald alle fressen.
Können Computer verstehen, was wir sagen? Presseberichten zufolge werden bald die Computer alles übernehmen. Aber was übernehmen – da bin ich mir nicht sicher. Chatbots sind keine faszinierenden Begleiter. Siri und Alexa sind Spielzeuge. Manchmal nützlich, manchmal nicht, aber immer noch Spielzeug.
Nach 40 Jahren Arbeit in der KI (in Natural Language Processing) habe ich gelernt, wie schwer es ist, die natürliche Sprache zu verstehen. Der beste Weg, dies den Leuten zu erklären, die denken, dass Chatbots bald die Menschen ersetzen werden, ist durch Witze. Ich mag besonders die Witze von Groucho Marx , hier ein paar seiner Lieblingssätze:
Outside of a dog, a book is man’s best friend. Inside of a dog, it’s too dark to read.
(Außerhalb eines Hundes ist ein Buch der beste Freund des Menschen. In einem Hund ist es zu dunkel zum Lesen.)
While hunting in Africa, I shot an elephant in my pyjamas. How an elephant got into my pyjamas I’ll never know.
(Auf der Jagd in Afrika schoss ich einen Elefanten in meinem Pyjama. Wie ein Elefant in meinen Pyjama gekommen ist, werde ich nie herausfinden.)
We took pictures of the native girls, but they weren’t developed. . . But we’re going back next week.
(Wir haben Fotos von den einheimischen Mädchen gemacht, aber sie sind noch nicht entwickelt . . . Aber wir gehen nächste Woche wieder hin.)
Kann ein Computer diese Witze verstehen? Nicht heute und auch nicht in nächster Zeit. Warum nicht? Zum Teil, weil viele von Grouchos Witzen von Mehrdeutigkeit abhingen.
Wörter bedeuten verschiedene Dinge in verschiedenen Zusammenhängen. Wenn Menschen anderen zuhören, machen sie Annahmen und Vorhersagen darüber, was als nächstes kommt, basierend auf dem, was sie über den Sprecher und die Welt wissen, und handeln entsprechend.
Hier ist ein Satz zum Nachdenken:
The old man’s glasses were filled with sherry.
(Die Gläser des alten Mannes waren mit Sherry gefüllt.)
Wenn wir beginnen, diesen Satz zu hören oder zu lesen, erschaffen wir ein Bild in unserem Kopf. Wir wissen nicht immer, dass wir das tun. Aber hier stellen wir uns zuerst einen alten Mann mit Brille vor – und dann müssen wir unser Bild anpassen. So etwas wird von Komikern wie Groucho ausgenutzt. Aber es passiert jedes Mal, wenn wir jemanden etwas sagen hören.
In “pictures of the native girls…” denkt man zunächst, dass sich das “they” in “they weren’t developed” auf den Film bezieht und erkennt dann, dass die “native girls” gemeint waren. Wir wissen das, weil wir etwas wissen, das in diesem Satz in keiner Weise enthalten ist: Als dieser Witz entstand, trugen “native girls” auf Bildern in National Geographic oftmals keine Shirts.
Auch mit “in my pyjamas” entsteht ein Bild in unserem Kopf, bei dem die nächste Zeile erkennen lässt, dass es das falsche Bild war. Bei “outside of a dog” müssen wir uns klar machen, dass mit “outside” hier “apart from” (abgesehen von) gemeint ist. Wenn wir dann mit “inside a dog” weiterlesen, müssen wir lachen, weil wir uns das Bild neu vorstellen müssen.
Aktuelle NLP-Programme würden nicht darüber lachen. Auch wären sie weder verwirrt noch müssten sie erneut analysieren, wenn sie merkten, dass sie einen Fehler gemacht hatten – weil sie nie merken würden, dass sie einen Fehler gemacht hatten.
Würde IBMs Watson Groucho verstehen, wenn er sagte:
I have had a perfectly wonderful evening, but this wasn’t it.
(Ich hatte einen wunderbaren Abend, aber dieser war es nicht.)
oder das hier:
No man goes before his time – unless the boss leaves early.
(Niemand geht vor seiner Zeit – es sei denn, der Chef geht früher.)
(Nicht-Muttersprachler der englischen Sprache werden damit wahrscheinlich auch Probleme haben.)
Der erste Satz erfordert eine Kenntnis der sozialen Etikette und der Dinge, die man sich gegenseitig sagt, um nett zu sein. Der zweite erfordert das Verständnis, dass “vor der Zeit gehen” bedeutet, jung zu sterben. Woher sollte Watson das wissen? Jemand hätte das explizit einprogrammieren müssen.
Es gibt viele solche Ausdrücke und das würde viel Programmierung bedeuten. Aber nehmen wir an, dass Watson in der Lage wäre, diese Phrase mit seiner Phrasendatenbank abzugleichen. Er würde den Witz immer noch nicht verstehen, weil er nicht wissen würde, dass vorzeitiges Gehen sich auf das Verlassen des Büros beziehen könnte. Er würde es nicht wissen, weil niemand daran gedacht hätte, das in Watson zu programmieren, weil es merkwürdig ist, das zu sagen. Wir können das interpretieren und dann darüber lachen. Menschen können sich was einfallen lassen. Sogenannte Künstliche Intelligenzen können das nicht.
Meine letztes Zitat von Groucho ist eines seiner berühmtesten:
I refuse to join any club that would have me as a member.
(Ich weigere mich, einem Club beizutreten, der mich als Mitglied haben will.)
Was bedeutet das überhaupt? Es ist ein Kommentar zur Ausgrenzungstaktik privater Vereine. Heute ist das weniger verbreitet, zu Grouchos Zeit aber war es durchaus üblich. Und es ist ein Kommentar zu Grouchos Selbsteinschätzung des eigenen Charakters, deshalb ist es auch lustig. Watson wird das nicht so schnell hinbekommen.
Und das ist das eigentliche Problem. Zum Verständnis der natürlichen Sprache gehört, eine genaue Vorstellung zu haben, wie die Welt funktioniert. Warum Menschen tun, was sie tun, und wie man Pläne macht, Dingen entgegenzuwirken, die andere tun und die man selber nicht mag.
Groucho hat nur Spaß gemacht. Andere reagieren vielleicht wütend. Watson würde weder wütend noch würde er versuchen zu antworten. Er ist kein denkendes Wesen mit einer Weltanschauung und dem Wissen darüber, wie die Welt funktioniert. Zählen von Wörtern bringt bei keinem Computer eine Ahnung davon hervor, worum es bei Grouchos Bemerkung überhaupt ging.
Wir sind sehr weit davon entfernt, wirkliche Künstliche Intelligenz zu sehen, aber das hat die Risikokapitalgeber nicht abgeschreckt, in KI-Start-ups zu investieren.
“Die Businesspläne der nächsten 10.000 Start-ups sind einfach zu prognostizieren: Nehmen Sie X und fügen Sie KI hinzu” (Kevin Kelly, Wired)
Er hat ausgelassen: “KI sagen und nicht verstehen, worum es geht. Das ist in etwa das, was Kapitalgeber und diejenigen, die das Geld nehmen, heute machen.”
Die folgende Aussage stammt von einem Risikokapitalgeber (John Henderson, Whitestar Capital):
“Die meisten Personalbeschaffer sind im wesentlichen Vermittler, die Bewerber und Arbeitgeber anhand definierter Merkmale (Standort, Branche, Fähigkeiten, Erfahrung) zusammenbringen. Ich kann es kaum erwarten, ein Unternehmen kennenzulernen, das maschinelle Intelligenz und NLP nutzt, um Kandidaten zu ermitteln. Das erste Vorstellungsgespräch wird ziemlich sicher auch von einem Computer durchgeführt werden.”
Tolle Idee. Versuchen wir nicht, herauszufinden, was für ein Mensch er ist, sondern zählen wir einfach nur, wie oft er in seinem Lebenslauf KI stehen hat.
Konversation zu machen ist für einen Computer ebenfalls sehr schwierig. Ich sah einen Film von 1934 mit dem Titel “Chained”. Clark Gable spielt einen amerikanischen Rancher, dessen Farm in Argentinien liegt. Er und ein reicher, eleganter Reeder rivalisieren um die gleiche Frau. In New York treffen sie sich (zusammen mit der Frau, um die sie konkurrieren) und führen das folgende Gespräch:
Verschicken Sie einige Ihrer Tiere hier?
do you ship any of your animals up here?
Ja, einige Rinder
yes, some cattle
Ich hoffe, Sie benutzen unsere Boote.
I hope you use our boats
Nein, Ihre Preise sind zu hoch.
no your rates are too high
Nun, das müssen wir sehen
well, we’ll have to see about that
Meine Tiere sind gesund, sie können auf einem langsameren Boot reisen; weniger Kosten
my animals are healthy, they can travel on a slower boat; less money
Sehr wirtschaftlich. Wo haben Sie das gelernt?
good economics; where did you learn about that?
Ich war in Yale
I was at Yale
Ich bin Harvard
I’m Harvard
Dieses Gespräch erzählt einem alles, was man über KI wissen muss. Wie würden Sie einen Computer dazu bringen,
“Sehr wirtschaftlich. Wo haben Sie das gelernt?”
mit
“Ich war in Yale”
zu beantworten?
Das ist keine Antwort auf die Frage. Und die Frage ist ja auch nicht das, was sie zu sein scheint, sondern:
“Wo haben Sie gelernt, kein Geld zu verschwenden?”
Das ist eine ziemlich widerwärtige Frage. Das Wort “wirtschaftlich” lässt die Frage klingen, als wäre sie mehr als sie war. Aber man fragt niemanden, der etwas Einfaches gesagt hat (” ich versuche, Geld zu sparen, wenn ich kann ” – das ist alles, was er gesagt hat), wo er es gelernt hat. Es sei denn, Sie sprechen mit einem Vierjährigen. Das ist eine Bemerkung von jemandem, der denkt, er sei etwas viel Besseres als die Person, mit der er spricht.
“Ich war in Yale ” ist keine Antwort darauf, wo Gable das überhaupt gelernt hat. Es ist eine Antwort auf die zugrundeliegende versnobte Frage, die wirklich gestellt wird, und die mehr oder weniger bedeutet: “Ich schätze, du bist nicht so dumm, wie ich dachte .” Die Antwort “Ich war in Yale ” soll heissen “Ich bin schicker als Sie dachten.”
Mit der Antwort “Ich bin Harvard” meint sein Gesprächspartner, dass “wir beide doch in derselben Klasse sind. Ich fühle mich jetzt besser, wenn ich mit dir rede.”
Wie würde ein Computer die Machtspiele hier verstehen? Wie sollte er verstehen, dass Harvard und Yale in Wirklichkeit Antworten sind bezogen auf den sozialen Stand und dass es in diesem Gespräch weder um Wirtschaft geht noch um irgendwelche Wirtschaftskurse, die Gable in Yale besucht haben könnte. Es geht um zwei Menschen, die sich gegenseitig abschätzen, was oft in einem Gespräch geschieht, in dem sich zwei mächtige Menschen treffen, und vor allem dann, wenn eine Frau dabei ist, um die sie sich streiten.
Hier ist also eine Übersetzung dieses Gesprächs, die die meisten Leute, die diesen Film gesehen haben, unterbewusst verstanden hätten:
How do you do your business? Can I make money on you?
(Wie machen Sie Geschäfte? Kann ich mit Ihnen Geld verdienen?)
No your rates are too high, I’ll explain. My animals are healthy, they can travel on a slower boat; less money
(Nein, Ihre Preise sind zu hoch, ich erkläre es Ihnen. Meine Tiere sind gesund, sie können auf einem langsameren Boot reisen; weniger Kosten)
Well; you aren’t stupid, but do you have any actual education? Are you in my social class?
(Nun, Sie sind nicht dumm, aber haben Sie tatsächlich eine Ausbildung? Sind Sie in meiner sozialen Schicht?)
I am as good as you are
(Ich bin so gut wie Sie.)
So you are.
(Das sind Sie auch.)
Kann ein Computer das auch? Natürlich nicht.
Um zu verstehen, was die wahren Absichten der Menschen sind und was sie wirklich meinen mit dem, was sie sagen, muss man viel von der Welt verstehen, in der wir leben.
Es ist natürlich ein Film von 1934, und jüngere Menschen verstehen das vielleicht nicht gleich. Wer Harvard und Yale nicht als ein Zeichen für die Zugehörigkeit zu einer bestimmten Gesellschaftsschicht ansieht, kommt nicht darauf. Harvard und Yale waren damals die ultimativen Indikatoren dafür. Das gilt auch heute noch, aber auf eine andere Art und Weise.
Heute würde man den Satz ” I am Harvard ” merkwürdig finden und nicht als eine versnobte Aussage für ” Ich bin ebenso gut wie Sie auch ” ansehen. Aber jeder, der heute nach Harvard geht, muss in Tests sehr gut abschneiden und muss ein Eins-A-Schüler in der High School gewesen sein. Dies war 1934 nicht der Fall.
Elon Musk kann vor intelligenten Computer Angst haben , so viel er will. Bis jedoch Computer die Bedeutung eines Satzes auf vielen Ebenen herausfinden können, hat er nicht viel zu befürchten. Bei der modernen KI geht es um Schlüsselwörter und Suchfunktionen und nicht um Ideen.
Der Hauptgedanke in dem Filmdialog wird eigentlich nie erwähnt, so dass die Suche nach Schlüsselwörtern nicht viel hilft. Der Reeder sagt mehr oder weniger:
“Lasst uns herausfinden, wie gut Sie sind, denn ich bin sicher, dass ich besser bin als Sie und daher besser für diese Frau, um die wir kämpfen.”
Die Antwort des Ranchers ist “Ich bin genauso gut wie Sie”.
Tatsächlich kehrte die Frau im Film wegen dieser Szene zu Clark Gable zurück. Sie hatte zuvor gesagt, dass sie Geld und sozialen Status wollte und Gable bewies, dass er seinem Rivalen ebenbürtig war.
Wo kann man das alles finden? Nicht in den eigentlichen Sätzen, das ist sicher. Verstehen ist eine Frage des Kontextes und der Schlussfolgerungen und Absichten. Man muss die Ziele und Pläne anderer Leute in jedem Gespräch herausfinden.
Welche der heutigen Künstlichen Intelligenzen kann in einem Gespräch genau das Richtige herausfinden, um die andere Person zu unterbieten?
Wie lernen wir das alles? Können wir es in Yale lernen? Das würden Sie tatsächlich, aber wahrscheinlich nicht im Unterricht. Wirkliches Lernen, das, was uns zwingt, zu überdenken, was wir tun und nach den Absichten derer zu suchen, mit denen wir uns beschäftigen, findet in den Schlafsälen und nach dem Unterricht statt. Der Lehrer kann Ihnen so viel erzählen wie er will, aber Sie müssen trotzdem mit den Leuten reden, intelligent fragen, herausfinden, woher sie kommen, und versuchen, sie zu beteiligen und sie vielleicht zu überzeugen. Das lernt man in Yale, aber es wird dort nicht gelehrt.
Tatsächlich wird nur sehr wenig, was Menschen lernen müssen, um die Welt zu verstehen, in der Schule gelehrt. Wir lernen aus Erfahrungen und der Reflexion über diese Erfahrungen. Welche Erfahrungen haben moderne KIs gemacht und reflektieren sie diese?
Um KI wirklich zu verstehen, müssen wir das “Ich” mehr verstehen.
Als meine Tochter (Hana) 5 Jahre alt war, rannte sie nach oben, um mir eine Frage zu stellen. Ich habe geantwortet. Sie sagte: “Ich komme wieder, wenn ich dich wieder brauche.” Ich habe das aufgeschrieben. Warum?
Mein Gebiet war KI, damals, als es noch um Intelligenz ging. Ich arbeitete an meinem ersten großen Buch und beobachtete meine Kinder genau, wie und was sie lernten.
Ich habe Hana nie “programmiert”, das so zu sagen. Ich habe ihr den Satz nicht in den Mund gelegt und ihr nicht gesagt, wann sie das sagen soll. Ich beantwortete einfach ihre Fragen. Sie wusste, dass sie noch mehr Fragen haben würde. So kam sie auf die Idee, dass sie, anstatt sich zu verabschieden, einen Weg erfinden musste, um “bis bald” zu sagen.
Das ganze Gerede über KI heutzutage bezieht sich in keiner Weise auf Selbstreflexion, weder auf das Wissen, das man haben muss noch auf das Vorwegnehmen der Zukunft. Wir reden über “KI”, aber nicht über das “Ich”. Wir haben bereits intelligente Einheiten (sie werden Menschen genannt.) Wenn sie durcheinander sind, fragen sie nach Erklärungen. Wenn die heutigen sogenannten KIs damit anfangen, lassen Sie es mich bitte wissen.
In der Zwischenzeit wäre es schön, wenn es nicht täglich einen Artikel über KI in wichtigen Publikationen gäbe, so lange in diesen Artikeln mit KI nur die Verarbeitung großer Datenmengen und Mustererkennung gemeint ist, ohne dass sich jemand fragt, was Künstliche Intelligenz wirklich bedeutet.
Bei der Intelligenz geht es doch darum, zu lernen, und wir wissen, dass es auch bei der KI darum geht, zu lernen – weil wir immer wieder hören, wie der Computer etwas gelernt hat (normalerweise, um “Go” besser zu spielen).
Vor etwa 40 Jahren aß ich mit einem Kollegen aus Yale (Bob Abelson – ein berühmter Sozialpsychologe), der damals auch mein engster Freund war. Ich beschwerte mich bei ihm, dass meine Frau Steak nicht richtig braten konnte (ich hasse zerkochtes Fleisch.) Er antwortete, dass er in den 50er Jahren in Großbritannien war und sein Haar nicht so kurz geschnitten bekam wie er es wollte. Bürstenhaarschnitt war damals in den USA angesagt, aber nicht in Großbritannien.
Das ist alles, was man über das Lernen wissen muss.
1 Lernen beginnt mit einem Gespräch
2 Der erste Redner hat ein Problem und möchte Hilfe beim Überdenken seines Problems
3 Der Zuhörer bringt das Problem seines Freundes mit einem eigenen Problem in Verbindung
4 Die Verbindung entsteht durch eine Aussage, von der der Zuhörer glaubt, dass sie die Erklärung sein könnte, die beide Parteien suchen.
5 Also antwortet er auf eine Geschichte mit einer Geschichte.
Darunter befinden sich einige einfache Wahrheiten
1 Lernen beginnt mit Neugierde. Das ist ein Grund, warum Schule kein guter Weg für Ausbildung ist. Wenn ich neugierig sein muss, um zu lernen, müsste sich die Schule auf etwas beziehen, worauf ich schon neugierig bin: Aber wie kann das gehen mit festen Lehrplänen und vielen Schülern in der Klasse, von denen jeder auf etwas anderes neugierig ist? Schule kann versuchen, mich neugierig zu machen. Aber wie viele Leute sind wirklich neugierig auf Algebra? Ich war tatsächlich einer von denen. Vier Jahre als Mathematikstudent haben mich davon überzeugt, neugierig auf etwas anderes zu werden, in meinem Fall auf Computer und menschliches Denken.
2 Zuhören kann nur funktionieren, wenn der Zuhörer auch neugierig ist. Ein Zuhörer interessiert sich vielleicht nicht für das, was der Sprecher interessant findet. Aber der kann versuchen, beim Zuhörer Neugier für ein Thema zu wecken. Klappt das, wird der Zuhörer versuchen, in seiner Erinnerung etwas zu finden, das er erlebt hat, um mit einer eigenen Geschichte zu antworten – und beide sind zufrieden. Wie machen wir das? (Moderne KI stellt seltsamerweise diese Art von Frage nicht einmal)
3 Ziele und Pläne zu vergleichen ist eine Art von Mustererkennung, aber Mustererkennung in KI bezieht sich heutzutage auf Wörter oder Pixel und nicht auf Ideen. Es ist schwer für einen Computer, Ideen zu vergleichen. Wenn wir also darüber sprechen, wie Computer lernen können, müssen wir skeptisch dabei sein, wie sie Dinge vergleichen.
Bob (der mit dem Haarschnitt) sagte:
“not getting what you want when it is easy enough to provide.”
“nicht das zu bekommen, was man will, wenn es so einfach ist, es zu liefern.”
Er hatte ein Ziel und konnte es nicht erreichen. Er musste eine Erklärung dafür finden, warum etwas, worum wir beide gebeten hatten (einen Haarschnitt und ein ordentlich zubereitetes Steak), uns nicht gegeben wurde. Menschen wissen, was sie zu verstehen versuchen. Computer nicht so sehr.
4 Erklärungen sind die Grundlage des Verständnisses. Bob suchte nach einer Erklärung. Er konstruierte eine, indem er meine Geschichte mit seiner Geschichte verglich. Aber was genau passte zu ihm? Er überlegte, was die Sichtweise der Beteiligten in seiner Geschichte gewesen sein könnte und konstruierte unbewusst eine Erklärung: Vielleicht wollte man seinem Anliegen nicht nachkommen, weil man es für zu extrem hielt.
5 Wenn wir unsere Geschichten mit den Geschichten anderer vergleichen, tun wir das, um von ihnen zu lernen. Wenn wir an eine Geschichte denken, die wir gehört haben, tun wir dies, um eine Erklärung für die Ereignisse in der Geschichte zu konstruieren. Wir können dies nur, indem wir uns an Erfahrungen erinnern, die wir gemacht haben und die sich auf die Erfahrungen beziehen, die uns erzählt werden. Wir gehen so vor, wenn wir neugierig auf eine Erklärung sind (typischerweise, weil wir denken, dass diese Erklärung uns helfen wird, etwas zu verstehen, worauf wir neugierig waren).
Aber was vergleichen wir? Sicher keine Wörter oder Pixel. Wir suchen nach Übereinstimmung auf hohem Abstraktionslevel wie Ziele, Pläne, Absichten. Mein Ziel war es, so zu essen, wie ich es mag. Bobs Ziel war es, so auszusehen, wie er wollte.
Aber auf einer höheren Abstraktionsebene war es mein Ziel, jemanden dazu zu bringen, etwas für mich zu tun, und seines ebenfalls. Jede Erklärung hätte also darin bestehen müssen, andere Menschen davon zu überzeugen, das zu tun, was wir wollten. Dieses Ziel (wie man jemanden überzeugt) wurde nie wirklich diskutiert, aber das ist es, worauf wir beide gespannt waren, und solche Ziele treiben das Lernen voran.
Lernen beginnt mit Neugierde. Wir suchen Erklärungen und verwenden diese, bis wir wieder verwirrt sind. Marvin Minsky hat mir mal gesagt, dass er es liebt, durcheinander zu sein. Er dachte gern über schwierige Dinge nach. Anders ausgedrückt: Wer nicht verwirrt oder neugierig ist, lernt nicht. Dies gilt für jede Form von Bildung und jede Form von KI.
Wir werden Computer niemals intelligent machen, indem wir uns auf Wörter konzentrieren, egal, wie gut man sie zählen oder zuordnen kann. Alles beginnt mit den Zielen und den Ideen, die ihnen zugrundeliegen. Hunde haben Ziele, aber sie haben keine Worte. Erstaunlicherweise können Hunde intelligent darüber nachdenken, was sie wollen.
Wenn die moderne KI das tun kann, was Hunde jeden Tag tun, um ihre eigentlichen Ziele zu erreichen, lassen Sie es mich bitte wissen.
Zum Schluss noch eine persönliche Geschichte
Zum Schluss möchte ich noch eine persönliche Geschichte erzählen. Ich kam von einer Reise nach New York zurück und fühlte mich sehr schlecht. Ich schätzte, dass ich einen Nierenstein hatte. Ich hatte schon vorher welche, aber diesmal schien es anders zu sein. Ich hatte keinen Arzt in New York, aber ein Freund sagte mir, er könne sofort jemanden zu mir bringen. Er kam, und später rief er mich an und sagte mir, dass ich sehr krank sei und sofort einen Nierenarzt aufsuchen müsse. Einen Termin hatte er für den nächsten Tag vereinbart.
Der Nierenspezialist untersuchte mich und sagte mir, dass ich an Nierenversagen sterben würde. Unnötig zu sagen, dass ich aus der Fassung geriet. Seine Krankenschwester kam herein und fragte mich, was der Arzt (der übrigens als einer der 100 besten Ärzte in New York aufgeführt war) gesagt hatte. Ich erzählte es ihr und sie meinte, dass sie viele Patienten gesehen hatte, die an Nierenversagen starben, und ich würde überhaupt nicht wie sie aussehen.
Der Arzt riet mir zu einer Diät, von der er sagte, dass sie helfen könnte. Ich fing damit an, nur um festzustellen, dass sie ziemlich genau das beschreibt, was ich normalerweise aß. Ich kehrte nach Florida zurück und wurde jeden Tag kränker. Schließlich rief ich einen reichen Freund an, der einen “Concierge Doctor” hatte und der sich bereit erklärte, mich anzuschauen. Der Arzt sagte mir, ich solle das nächste Flugzeug nach New York nehmen und ins Columbia Presbyterian gehen.
Ich traf dort einen Nierenarzt (Jai Radhakrishnan), der etwas sehr Seltsames tat – er hörte zu. Er fragte mich nach jedem Detail meiner Zeit in Großbritannien und New York und sagte mir dann, dass ich nicht an Nierenversagen sterben würde. Er sagte, dass ich einen sehr hohen Kreatininwert hatte – was den anderen Arzt irritiert hatte, weil das häufig mit einem Nierenversagen verbunden ist.
Was mir wirklich passiert ist, war, dass beide Nieren blockiert wurden, eine durch einen Nierenstein und eine, weil ich es geschafft hat, mich zu entwässern, was eine vollkommene Störung hervorrief. “Entferne den Nierenstein und es wird dir gut gehen”, sagte er. Das wurde gemacht, und ich lebe noch.
Warum erzähle ich diese Geschichte?
In letzter Zeit wurde viel Unsinn über KI und Medizin geschrieben. Zum Beispiel https://futurism.com/ai-medicine-doctor und https://thenextweb.com/artificial-intelligence/2018/02/05/ai-is-giving-the-entire-medical-field-super-powers
Was ist das Problem dabei?
Ein ständiges Problem bei der Berichterstattung über KI ist, dass sie KI sagen, wenn sie “einen statistischen Algorithmus” meinen. Man kann Computerprogramme schreiben, um Datenmengen leichter zu untersuchen als eine Person dies kann. Das ist eine gute Sache. Aber Daten werden von den Leuten leicht missverstanden (besonders wenn sie den Kontext nicht verstehen), und Sie können sicher sein, dass diese Künstlichen Intelligenzen keine Ahnung haben.
Der erste Nierenarzt, den ich sah, sah eine Kreatininzahl über 5 und untersuchte einfach nicht weiter. Die Krankenschwester sah mich an und verglich mich mit anderen Patienten, die sie gesehen hatte. Der Columbia-Nierenarzt hörte zu und nutzte sein umfangreiches Wissen über frühere Fälle, um den Grund herauszufinden.
Die moderne Medizin ist voll von Ärzten, die bereits Roboter sind. Aber gute Medizin ist wie jedes andere Thema, das ein Urteil auf der Grundlage früherer Fälle erfordert. Du kannst Regeln folgen, oder du kannst denken. Der erste Nierenarzt (den ich mehrmals gesehen habe) hat sich nie die Mühe gemacht, wirklich zu denken.
In der letzten KI-Hype-Bewegung der 1980er Jahre waren regelbasierte Systeme in Mode. Die Ärzte wurden befragt und die Regeln wurden aus ihnen extrahiert, und dann erhielten die Computer diese Regeln. Plötzlich sollte es “Expertensysteme” geben und sie würden die Welt beherrschen. Die Risikokapitalgeber stürzten sich kopfüber in das Thema.
Ich reagierte auf diesen Expertensystem-Unsinn mit der Idee der fallbezogenen Argumentation. Ich sagte, dass Menschen aus der Vergangenheit schlussfolgern und keine Regeln anwenden.
Ein Arzt kann Ihnen eine Regel nennen, wenn er gefragt wird, aber das bedeutet nicht, dass er diese Regel bei der Entscheidungsfindung verwendet. Die Menschen sind notorisch schlecht darin, zu verstehen, wie ihr eigener Verstand funktioniert.
Sie wünschen sich einen Arzt, der viele ähnliche Fälle wie den ihren gesehen hat und das kann, was die Krankenschwester getan hat: etwas erkennen, indem sie den Patienten wirklich ansieht.
Die regelbasierten Systeme, die den KI-Winter der 1980er und frühen 1990er Jahre verursachten, versprachen, etwas zu tun, was die Menschen nicht tun: aus Regeln zu schließen. Jetzt beabsichtigt die moderne “KI”, aus riesigen Datenmengen zu schlussfolgern, die der Computer wirklich nicht versteht (genau wie mein NYC Top Doctor).
Fallbasierte Argumentation schlägt vor, dass die Menschen Fälle auf der Grundlage vieler Faktoren speichern und katalogisieren und sie sich an diese alten Fälle erinnern, wenn verschiedene Faktoren teilweise übereinstimmen. Dann, und das ist der wichtige Teil, denken sie gründlicher über die früheren Fälle nach und versuchen, das, was sie damals gelernt haben, in ihre Entscheidungen einzubeziehen.
Wir hatten einige Erfolge beim Aufbau fallbasierter Argumentationsprogramme, und viele andere machen das immer noch, aber als die Finanzierung ausblieb, wurde es schwieriger. Dieser Verlust wurde durch die aktuelle “KI” verstärkt, die keine Argumentationsmöglichkeiten aus der Erfahrung heraus hat und nur Rückschlüsse auf Daten versprechen kann, die sie wirklich nicht versteht.
Gegenwärtige Künstliche Intelligenz und die medizinischen Programme hätten mich auch sterben lassen. Dr. Radhakrishnan fragte und hörte mir aufmerksam zu. Bis Computer das tun können, ersetzen sie keine menschlichen Ärzte (oder jeden anderen, der tatsächlich denken muss).
Nun, natürlich glaube ich an die KI. Ich habe mein ganzes Leben lang dafür gearbeitet. Aber die derzeitige KI-Mode, die von den Medien gefördert und von Kapitalgebern unterstützt wird, kann nur zu dem führen, wovor die Leute Angst haben: dumme Computer, die denkende Menschen ersetzen.
Könnte ein Computer jemals eine gute Diagnose stellen? Ich denke, er könnte, nachdem Tausende von Fällen analysiert und indiziert wurden. Aber daran wird wegen des KI-Winters der 80er Jahre überhaupt nicht gearbeitet (gut, ich arbeite noch gelegentlich daran).
Also müssen wir jetzt damit aufhören zu denken, dass KI alles Wichtige erledigen wird und stattdessen fragen, ob ein Algorithmus uns helfen könnte, bessere Daten an Ärzte zu liefern (natürlich hätte das in meinem Fall noch nicht geholfen). Die Algorithmen müssen als Datenanalyse und nicht als “KI” gesehen werden.
Mit anderen Worten: Aktuell lohnt sich Künstliche Intelligenz nur, wenn sie den Menschen hilft, bessere Entscheidungen zu treffen.
Roger Schank ist auch mit einem Beitrag im Buch “Was sollen wir von Künstlicher Intelligenz halten? Die führenden Wissenschaftler unserer Zeit über intelligente Maschinen” vertreten.