2264997

Wie Künstliche Intelligenz unseren Alltag verändert

06.04.2017 | 15:11 Uhr |

Künstliche Intelligenz wird den Menschen nicht ersetzen, sondern ihn entlasten und unterstützen. Wie diese Mensch-Maschine-Kooperation künftig aussehen kann, dazu hier ein paar Beispiele.

1928: Alles begann mit Eric (in diesem Fall nicht mit Adam). Eric war der erste britische Roboter, der in diesem Jahr von William Richards, einem Luftfahrtingenieur, entwickelt wurde. Noch konnte Eric sich nicht selbstständig bewegen oder mit Adam und seinen Nachkömmlingen kommunizieren.

2017: Heute sieht das anders aus. Während Eric durch eine Kickstarter-Kampagne erneut zum Leben erweckt wurde und heute im Londoner Science Museum steht und schweigt, sind seine Brüder da – und sprechen.

Was in den 60er Jahren in der SciFi-Serie „Raumschiff Enterprise“ noch als Fiktion galt, steht heute in immer mehr Haushalten und hört auf das Wort „Alexa“ – oder auch in Anlehnung an die US-Serie auf „Computer“. Alexa schaltet das Licht ein, liest mir meine Termine vor oder weckt mich rechtzeitig, um dann auch noch die Staumeldungen zu verkünden. Staus haben wir immer noch, auch wenn in den kommenden Jahrzehnten nur noch wenige von uns selbst fahren werden. Eric wird uns fahren.

Hier kommen wir zum eigentlichen Thema. Welche Auswirkungen hat KI auf unseren Alltag? Um diese Frage zu beantworten, muss Künstliche Intelligenz zunächst genauer betrachtet werden.

Was heißt eigentlich Intelligenz?

Ob jemand oder etwas als intelligent bezeichnet wird, liegt an seinem Auftreten und seinen Handlungen, die wir wahrnehmen. Wir können weder in das Gehirn unseres Hochschulprofessors schauen, noch in den Prozessor vermeintlich intelligenter Maschinen. So bleibt uns nur die Einordnung einer Handlungsweise als intelligent, die wir als besonders schlau empfinden und bewerten. Ein Beispiel soll zeigen, dass uns die Wahrnehmung einen Streich spielen kann.

Ein Gedankenexperiment des Philosophen John Searle von 1980 beschreibt einen Raum, in dem ein Mensch sitzt. Dieser Mensch nimmt von außen Texte auf Chinesisch entgegen und soll anschließend Fragen zu ihnen beantworten – ebenfalls auf Chinesisch. Diese Antworten werden von einem chinesischen Muttersprachler ausgewertet, als verständlich bzw. sinnhaltig – und damit als intelligent - bewertet. Wird nun der Muttersprachler befragt, ob der Mensch im Raum in diesem Sinne intelligent sei, wird er dies mit Ja beantworten. In Wirklichkeit – bzw. der des Gedankenexperiments – beherrscht der Mensch im Raum kein Chinesisch. Er erarbeitet sich die Antworten, ohne tatsächliches Verständnis der fremden Schriftzeichen, lediglich anhand von im Raum zur Verfügung stehenden Schriften in beiden Sprachen.

Da seine Methoden nicht einsehbar sind, erscheint der Mensch nach außen aber als intelligent. Wenn wir dieses Experiment nun weiterführen und keinen Menschen mit einer Bibliothek, sondern einen Computer mit einem entsprechenden Programm ausstatten, ist das Ergebnis von außen betrachtet das gleiche. Also ist Intelligenz nur die Wahrnehmung dessen, was wir als intelligent empfinden und als solches einstufen.

Mit dieser Einstellung fällt es schon wesentlich leichter, Künstliche Intelligenz zu verstehen. KI zeigt Verhalten, welches wir aus der Erfahrung heraus als intelligent bezeichnen würden. Das geht bei banalen Dingen los wie dem automatischen Schließen des Dachfensters bei Regen. Das ist schlau, aber auch noch nicht wirklich so intelligent, dass wir es mit Künstlicher Intelligenz ausgestattet glauben.

Unsere Vorstellungen sind geprägt durch Kinofilme, die Zukunftsvisionen in all ihren Facetten darstellen. KI spricht mit uns, bewegt sich oder hört auch nur zu.

Wie aber beeinflusst KI nun unseren Alltag?

Unser Leben besteht doch meist zu einem großen Teil aus arbeitsintensiven Tätigkeiten, die wir mehr, oftmals jedoch eher weniger gerne erledigen. Und genau hier besteht deshalb Handlungsbedarf: Im Zeitalter der industriellen Revolution wurde die menschliche Arbeitskraft durch Maschinen ersetzt – in der gerade stattfindenden Revolution liegt der Schwerpunkt weniger auf der Muskelkraft, sondern vielmehr auf den geistigen Leistungen.

Erik Brynjolfsson, Direktor des Zentrums für E-Business am Massachusetts Institute of Technology (MIT) und Autor des Buchs „The Second Machine Age“ , bezeichnet dieses als das zweite Maschinenzeitalter. Er geht davon aus, dass wir in 30, 50 oder 100 Jahren in einer Welt leben werden, in der Maschinen die meisten Jobs erledigen . Eine Studie der Universität Oxford kommt zu dem Schluss, dass bis 2030 rund 47 Prozent aller Arbeitsplätze in den USA der Automatisierung zum Opfer fallen könnten. Die London School of Economics kommt in ihrer Studie für Deutschland zu einem ähnlichen Ergebnis.

Das Stichwort Automatisierung ist hierbei hervorzuheben. Es geht nicht darum, schlichtweg den Menschen durch Maschinen zu ersetzten, sondern um eine Umschichtung der Tätigkeiten – eine ideale Verteilung der Arbeit im Sinne individueller Kompetenzen. Davon profitieren von Fall zu Fall Menschen, aber auch Computer: Ein Mensch baut Beziehungen zu anderen Menschen auf, ist intuitiv und kreativ. Computer hingegen rechnen schneller, sie analysieren Unmengen an Daten in einer kürzeren Zeit als jeder Mensch.

Die Zukunft der Mensch-Maschine-Kooperation

Ein Beispiel soll zeigen, wie in der nahen Zukunft die Mensch-Maschine-Kooperation aussehen kann. Ein Arzt kann so beispielsweise eine Diagnose auf Grundlage der digitalen Analyse eines Röntgenbilds mit seinem Team diskutieren und in einer menschlichen Vertrautheit seinem Patienten vermitteln. Dem Computer stehen Millionen von Datensätzen zur Verfügung, um die gewünschte Analyse durchzuführen – und das in einem Bruchteil der Zeit, mit einer hohen Genauigkeit und einer breiten Abdeckung der möglichen zu diagnostizierenden Faktoren.

Ein Arzt würde das Röntgenbild auf die im Verdacht stehende Krankheit analysieren; ein Computer kann es auch auf alle bekannten Risikofaktoren hin analysieren und so auch eine Diagnose stellen, die gerade nicht im Fokus der Untersuchung stand. Dies ermöglicht nicht nur eine sicherere, schnellere Analyse, sondern ermöglicht auch einen Gesundheitscheck, der über das bisher Bekannte hinausgeht. Ob dies direkt so gewünscht ist und ungefiltert an den Menschen weitergeleitet werden sollte, steht noch auf einem anderen Blatt. Eine Diagnose zur Lebenserwartung zu erhalten, obwohl gerade nur die jährliche Routine-Blutuntersuchung ansteht – das will sicherlich niemand.

Fakt ist, dass es in Zukunft eine noch viel engere Zusammenarbeit mit intelligenten Maschinen geben wird. Nur wer auch diesen digitalen Wandel mitmacht, wird in Zukunft noch ein Rad im Getriebe der arbeitenden Gesellschaft sein.

Ein weiteres Beispiel zeigt, wie weit die Entwicklung des zweiten Maschinenzeitalters bereits vorangeschritten ist, und dass dies alles keine fiktionalen Aussichten sind, die uns nicht mehr unmittelbar betreffen werden: Eatsa – ein Roboterrestaurant, gestartet im amerikanischen San Francisco, hat die Kellner abgeschafft und wirbt unter anderem mit dem Slogan „No lines. No cashier. No nonsense.“

Damit hat das Restaurant bereits einen großen Schritt übersprungen und die Vorstellung, die wir von einem Roboterrestaurant eigentlich hatten, in eine automatisierte und vereinfachte Version transferiert: Keine Roboter, die Tabletts balancieren oder uns freundlich nach unseren Essenswünschen fragen. Automation nimmt die Tätigkeit eines Kellners ab. Die Aufnahme der Bestellung durch die Bedienung und die Eingabe in ein Kassensystem, welches wiederum in der Küche einen Bon produziert, fallen  weg. Disruptive Technologie nennt man das. Also eine Technologie, die Bestehendes verdrängt und überflüssig macht.

Uber, bekannt geworden durch ein recht aggressives Eintreten in den lang etablierten Markt der Taxifahrer, wurde und wird als Jobkiller tituliert. Fakt ist aber, dass Uber mehr Arbeitsplätze geschaffen hat als es in San Francisco im gesamten Taxi-Umfeld zuvor gab. Dies ist ein eindeutiges Zeichen einer Umstrukturierung der Arbeitsgesellschaft. Taxifahrer werden abgeschafft, neue Arbeitsplätze in der Entwicklung und Betreuung digitaler, intelligenter Systeme werden geschaffen.

Die Akzeptanz eines sprechenden Roboters hält sich im Jahr 2017 noch in Grenzen

Kaum jemand würde frei von Scheu, nur mit einer ordentlichen Portion Neugier versehen, mit einem humanoiden Roboter sprechen. Hierfür muss Akzeptanz geschaffen werden.

Die Menschheit muss bereit sein, die Evolution der Maschinenwesen Schritt für Schritt zu erfahren. Dies beginnt mit Rasenmähern und Staubsaugern, die bereits Zugang in unsere häusliche Umgebung gefunden haben. Mit Alexa, Siri, Cortana und all den anderen Sprachassistenten sprechen wir bereits mit intelligent anmutenden Systemen.

Wird die Hardware, also der Rasenmäher und andere, noch mit den sprechenden Systemen verbunden, ist der Robot perfekt. Zumindest fast: Die Perfektion steht noch aus – die äußere Erscheinung muss oft noch den Maßstäben menschlicher Empfindsamkeit angepasst werden. Eine angenehme äußere Erscheinung führt zu mehr Akzeptanz.

Die Roboterrobbe Paro soll im Senioren- oder Pflegeheim für etwas Aufheiterung sorgen
Vergrößern Die Roboterrobbe Paro soll im Senioren- oder Pflegeheim für etwas Aufheiterung sorgen
© picture-alliance/ dpa/dpa

Japaner lieben alles, was „kawai“, also süß ist. Ein recht bekanntes Beispiel ist die Roboterrobbe Paro, die im Senioren- oder Pflegeheim für etwas Aufheiterung sorgen soll. In Deutschland etwas umstritten ist ihr Einsatz als Therapie-Robbe bei Demenzerkrankten.

Eine andere Erscheinung eines roboterähnlichen Wesens sind die Kreationen des japanischen Professors Hiroshi Ishiguro. Auf der CeBIT 2017 in Hannover sagte er: „Ich denke, schon in naher Zukunft werden wir eine Roboter-Gesellschaft haben“. Er selbst hat ein Abbild von sich selbst erschaffen. Sogar in Japan wird Ishiguro durch seine Prognose einer solchen Robotergesellschaft als radikaler Vertreter der Robotik wahrgenommen.

Wenn Roboter dem Menschen immer ähnlicher werden ... wer ist der echte Hiroshi Ishiguro?
Vergrößern Wenn Roboter dem Menschen immer ähnlicher werden ... wer ist der echte Hiroshi Ishiguro?
© Hiroshi Ishiguro

Japan gilt aber im Vergleich zu Europa als Land der Robotik. Dies liegt u.a. auch an der kulturellen Entwicklung und der recht frühen Publikation der Zeichentrick Reihe „Astro Boy“ in den fünfziger Jahren. Auch hier wurde die Robotik der Gesellschaft über ein profanes Mittel als eine menschenfreundliche Technik vermittelt. Astro Boy war und ist der Robotikheld schlechthin.

„Intelligenz muss der menschlichen Intelligenz ähnlich sein“

Wenn Roboter dem Menschen immer ähnlicher werden, spielen auch die Faktoren der Ethik und der Rechte eine Rolle. Dies liegt nicht allein am menschenähnlichen Aussehen der humanoiden Roboter, sondern auch an dem, was die Robotik für die Gesellschaft leistet.

Warum sollte ein Roboter keine Rechte bekommen, die „ihm“ zugestehen, sein Wissen zu behalten und nicht durch ein Abschalten der Systeme zu verlieren? Was unterscheidet „ihn“ von uns – die Seele?

Japaner sehen diese auch in nicht lebenden Dingen und sind uns damit in dieser Hinsicht mal wieder einen Schritt voraus. Die Ethik der Roboter wird zunächst über Entscheidungen richten müssen, die noch banaler sind, jedoch eine weit größere Auswirkung auf unser Umfeld haben - nämlich eines der obersten Robotergesetze, die Isaac Asimov in seiner Erzählung Runaround beschreibt:

„Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.“

Auch wenn dies Science-Fiction ist, würden wir diesem Gesetz heute zustimmen. Kein Roboter sollte uns verletzen. Was aber passiert in Situationen, die eine Entscheidung zwischen Schädigung A oder Schädigung B notwendig machen? Also eine Situation, wie sie in dem Theaterstück „Terror“ von Ferdinand von Schirach aufgezeigt wird. Hier wird die fiktive Situation einer Entführung eines Passagierflugzeugs inszeniert, das durch einen Luftwaffenpiloten abgeschossen wird, was einen Absturz in einem voll besetzten Fußballstadion verhindert. Es wird also der Tod von wenigen gegenüber dem Tod von vielen der Vorzug eingeräumt. Dieses Stück zeigt eine Situation auf, die nicht immer zufriedenstellend durch Regeln entschieden werden kann. Eine gewisse Intuition und Moral spielen in derartigen Situationen eine große Rolle.

Wie können nun Maschinen moralisch richtige Entscheidungen treffen? Einfache und realere Situationen findet man auf der Webseite Moral Machine , die vom MIT ins Leben gerufen wurde. Ein Beispiel sind etwa einfache Verkehrssituationen, die eine Entscheidung über Leben und Tod notwendig machen.

Wie können Maschinen moralisch richtige Entscheidungen treffen?
Vergrößern Wie können Maschinen moralisch richtige Entscheidungen treffen?
© moralmachine.mit.edu

Technische Machbarkeit vs. Moral

Die technische Machbarkeit wird sich in den kommenden Jahren beweisen müssen, die moralischen Aspekte werden aber noch länger zu diskutieren sein.

Eine programmatisch festgelegte Moral würde in solchen Fällen eine Vorhersage des jeweiligen Verhaltens weitgehend ermöglichen. Will heißen, wenn ein Fahrzeug eher einen – wie oben gezeigt – älteren Fußgänger in Gefahr bringt als einen jüngeren, macht es das Leben zumindest im Alter nicht unbedingt sicherer. Wirkung und Resonanz eines immer nach einem bestimmten Muster agierenden Fahrzeugs sind noch nicht absehbar. Aber auch dieses Problem wird sicherlich in den kommenden Jahren gelöst werden. Die Aussichten, einen sichereren Straßenverkehr zu bekommen, sind nicht so schlecht. Was uns aus heutiger Sicht noch sehr funktional erscheint, wird rückblickend altbacken wirken.

Aufzuhalten ist dieser nächste Schritt nicht. Viel wichtiger ist, dass wir die Entwicklung verstehen, um damit richtig umzugehen.

0 Kommentare zu diesem Artikel
2264997