2324692

Wenn die Maschine entscheidet – zur Ethik selbstfahrender Autos

19.03.2018 | 15:00 Uhr |

Autonom fahrende Autos versprechen Komfort und Sicherheit. Nicht mehr die gute Reaktion des Fahrers entscheidet in kritischen Situationen, sondern die Algorithmen der Systemsteuerung. Bleiben Ethik und Moral dabei auf der Strecke?

Es ist bereits absehbar, dass in den nächsten Jahren immer mehr selbstfahrende Fahrzeuge das Straßenbild prägen werden. Da 90 Prozent der Unfälle im Straßenverkehr auf menschliches Versagen zurückgehen, stehen die Chancen gut, mit diesen Fahrzeugen die Anzahl der Unfälle reduzieren zu können.

Aber auch die besten autonomen Autos werden Unfälle verursachen, da immer wieder einmal ein Reifen platzt oder die Bremsen versagen. Auch können Fehler in der Software dazu führen, dass das Fahrzeug radikal abbremst oder beschleunigt.

Um Kollisionen im Straßenverkehr zu vermeiden, halten die Verkehrsordnungen vieler Länder die Fahrer zu einem rücksichtsvollen und vorsichtigen Fahrverhalten an. Dies kann in einem bestimmten Ausmaß gelernt und geübt werden, obgleich in brenzligen Situationen spontanes und reflexartiges Reagieren unerlässlich ist.

Selbstfahrende Autos müssen über Regeln verfügen, die ihnen einprogrammiert worden sind, um bei drohender Gefahr  entsprechende Fahrmanöver einleiten zu können. Neben der Schwierigkeit, die nahezu unübersehbare Zahl von Szenarien im Straßenverkehr zu erfassen, sind auch moralische Grundsatzentscheidungen zu treffen. Ein Auto, das die Sicherheit seiner Insassen über alles andere stellt, ist gesellschaftlich wohl ebenso wenig akzeptabel wie ein Fahrzeug, das generell seine Passagiere opfert, um andere Verkehrsteilnehmer zu retten.

Der Weichensteller-Fall

Im Mittelpunkt der Diskussion um die ethischen Grundsätze für das autonome Fahren steht gegenwärtig das sogenannte Trolley-Problem , das auf ein philosophisches Gedankenexperiment zurückgeht. Es fragt, ob ein außer Kontrolle geratener Zug, der eine Gruppe Menschen zu überrollen droht, absichtlich so umgeleitet werden darf oder sogar sollte, dass nur ein einzelner Gleisarbeiter zu Tode kommt.

Dahinter steht die Überlegung, ob man in einer Gefahrensituation den Tod weniger in Kauf nehmen darf, um viele zu retten. Ob die Anzahl der zu opfernden Personen zählt, wurde immer wieder in verschiedenen Varianten und mit der Charakterisierung der beteiligten Menschen im Hinblick auf Alter, Geschlecht und Beruf untersucht. Damit hat Philippa Foot eine Diskussion über moralische Intuitionen und ihre Vertretbarkeit angestoßen.

Sobald selbstfahrende Autos verbreitet sind, könnte dieses Problem auch jederzeit im Straßenverkehr auftreten. Man denke etwa an ein Auto, dessen Bremssystem ausfällt just in dem Moment, als drei kleine Kinder die Straße überqueren. Ein Zusammenprall erscheint unvermeidlich, da das Fahrzeug aufgrund parkender Autos und anderer Fußgänger nicht nach rechts ausweichen kann. Ein Ausweichen nach links auf die Gegenfahrbahn würde dazu führen, dass ein entgegenkommender achtzigjähriger Fahrradfahrer frontal überfahren wird.

Was ist in einer solchen Situation zu tun? Für welches Manöver sollte sich der Algorithmus entscheiden?

Bislang trifft der Fahrer solche Entscheidungen spontan und reflexartig, da er weder die Informationen noch die Zeit für die Lösung ethischer Probleme hat. Beim autonomen Fahren entscheiden hingegen die zuvor einprogrammierten Algorithmen, weshalb im Grunde eine Ethik in das technische System implementiert werden muss.

Moralisches Denken

Ein utilitaristischer Zugang könnte im geschilderten Fall darin bestehen, den Fahrradfahrer zugunsten der drei kleinen Kinder zu opfern. Man möchte möglichst wenige Tote beklagen, und zudem haben die Kinder im Unterschied zum Achtzigjährigen ihr ganzes Leben noch vor sich.

Diese Aufrechnung von Menschenleben verstößt jedoch nicht nur gegen die moralische Intuition vieler Menschen, sondern auch gegen das Prinzip der Menschenwürde. Menschen sind aufgrund ihrer Würde unendlich viel wert, und Unendlichkeit lässt sich nicht addieren.

Die Überzeugung, Menschenleben nicht gegeneinander aufzusummieren, geht auf den Philosophen Kant zurück und ist fester Bestandteil zahlreicher Rechtssysteme. Allerdings ist auch diese Position nicht unumstritten, da sie an die Grenzen der moralischen Intuition stößt.

Dies zeigt sich dann, wenn den möglichst wenigen zu rettenden Menschen möglichst viele gegenüberstehen, die geopfert werden sollen, also etwa drei gegen tausend Leben abzuwägen sind. Irgendwann sind viele Menschen der Auffassung, dass die Anzahl doch relevant ist und verfallen damit dem utilitaristischen Kalkül, das die zu opfernden Personen instrumentalisiert.

Was sollen die Hersteller von selbstfahrenden Autos tun? Wie sind die Algorithmen zur Fahrzeugsteuerung zu programmieren?

Defensive Programmierung

Bereits heute sind die Fahrzeughersteller darauf bedacht, dass es erst gar nicht zu Unfällen im Straßenverkehr kommt. Die Steuerungssysteme sind defensiv programmiert, d. h. dass im Zweifel sofort gebremst und die Geschwindigkeit stets der Verkehrssituation angepasst wird.

Kommt es dennoch zu einer Gefahrensituation, sollte in Übereinstimmung mit dem Grundgesetz sowie den Leitlinien der Ethik-Kommission keine in der Programmierung verankerte Bemessung der möglichen Opfer anhand gewisser Qualitäten erfolgen. Stattdessen ist das Steuerungssystem so auszurichten, dass es auf ein sicheres Ausweichmanöver abzielt. Ist dies nicht möglich, wird die Geschwindigkeit in der Fahrspur und damit die Kollision maximal reduziert.

Haftung und Versicherung

Gerät ein autonomes Auto in einen Unfall, kann der Lenker nicht mehr haftbar gemacht werden. Doch auch der Algorithmus, der das Fahrzeug steuert, ist nicht schuldfähig – bleibt also nur der Hersteller übrig.

Sind jedoch die Steuerungssysteme autonomer Fahrzeuge mit selbstlernenden Algorithmen ausgestattet, kommt das klassische Haftpflichtrecht, das von einer Voraussehbarkeit des Schadens ausgeht, an seine Grenzen. Retrospektiv lässt sich eine Schadenverursachung durch das System kaum mehr auf die ursprüngliche Programmierung oder das spätere selbstständige Dazulernen (das Trainieren durch Benutzung) zurückführen.

Auf europäischer Ebene wird diskutiert, selbstfahrende Systeme aufgrund ihrer Autonomie ähnlich wie eine juristische Person haftbar zu machen. Auch eine Aktiengesellschaft ist kein Mensch, gleichwohl ist sie handlungsfähig. Solche Systeme könnten mit einer elektronischen Rechtspersönlichkeit versehen und damit handlungsfähig werden. Dazu müsste man sie öffentlich registrieren, über ein Vermögen verfügen lassen und mit einer obligatorischen Haftpflichtversicherung ausstatten.

Man wird vermehrt über eine solche electronic personhood nachdenken müssen, je mehr Situationen es gibt, in denen das bestehende Recht nicht mehr ausreicht.

Personalisierung

Offenbar lassen sich die unterschiedlichen ethischen Traditionen, die Menschen in ihrem Tun leiten, nicht als richtig oder falsch beurteilen. Daher könnte zukünftig dem Käufer eines autonomen Fahrzeugs eine Entscheidung abverlangt werden, wie es in einer Gefahrensituation reagieren soll.

So wie die Individuen die Ausstattung der Fahrzeuge konfigurieren, dürfte es Dr. Janina Loh zufolge auch Optionen bei den Algorithmen zur Fahrzeugsteuerung geben. Martin Kolmar und Martin Booms skizzieren selbstfahrende Autos, die es erlauben, zwischen einem egoistischen (e-drive) und einem altruistischen (a-drive) Modus zu wählen. Im ersten Fall wird das Fahrzeug niemals auf Kosten der Passagiere einen Unfall vermeiden, im zweiten Fall hingegen schon.

So weit muss es nicht gehen. Gleichwohl braucht es einen gesellschaftlichen Diskurs über die ethischen Grundsätze von Steuerungssystemen in Fahrzeugen.

Wie einfach schien die Welt noch, als viele Entscheidungen über Leben und Tod im Straßenverkehr von der Spontanität und den Reflexen der Verkehrsteilnehmer abhingen.

0 Kommentare zu diesem Artikel

PC-WELT Marktplatz

2324692