Das US-Verteidigungsministerium will zwei Milliarden US-Dollar für mehr künstliche Intelligenz (KI beziehungsweise AI) in seinen Waffen ausgeben. Die Waffen sollen dadurch in die Lage versetzt werden, den Vorgesetzten ihre „Entscheidungen erklären zu können“, wie die IT-Nachrichtenseite The Verge schreibt.
Konkret soll sich die DARPA, also die Forschungsabteilung des US-Verteidigungsministeriums, um mehr „Hirn“ für die Waffen kümmern. Bei den geplanten zwei Milliarden Dollar handelt es sich um die bisher größte Investition in den Bereich KI, den das US-Militär getätigt hat. Die zwei Milliarden will die DARPA in den nächsten fünf Jahren ausgeben. Zwei Milliarden klingt zwar zunächst einmal nach viel Geld, im Vergleich zu anderen großen Rüstungsprojekten wie dem neuen Tarnkappen-Kampfflugzeug F-35 ist die Summe aber gering.
In erster Linie geht es darum, dass die US-Kommandeure den intelligenten Waffen vertrauen beziehungsweise ihnen zutrauen, selbstständig die richtigen Entscheidungen treffen zu können. Damit soll die Akzeptanz für derartige smarte Waffen gesteigert werden. Die US-Armee sieht sich bei KI in Waffensystemen in einem harten Wettbewerb mit Russland und der Volksrepublik China.
Ein Beispiel für ein solches KI-Projekt für militärische Zwecke ist „Project Maven“. Dabei geht es um die Entwicklung einer KI-basierten Technik, die auf dem Foto- und Videomaterial von US-Aufklärungsdrohnen militärisch lohnenswerte Ziele erkennen soll. Google hatte hier anfangs mitgearbeitet, sich dann aber nach massiven Mitarbeiterprotesten von Maven zurückgezogen.
Während es bei Maven „nur“ darum geht militärische Ziele überhaupt identifizieren zu können, kann man den KI-Einsatz im militärischen Bereich durchaus weiterspinnen und sich Waffen vorstellen, die tatsächlich selbstständig töten können und mit künstlicher Intelligenz ausgestattet sind. Das käme Elon Musks Horrorvision von Robotern, die die Straße entlanggehen und Menschen töten, schon ziemlich nahe.
Die US-Armee besitzt derzeit zwar kein solches System, doch es existieren laut The Verge bereits Strategie-Papiere zu diesem Thema im Pentagon. Die militärischen Befehlshaber stünden solchen Waffen derzeit aber noch ablehnend gegenüber, weil sie an der Zuverlässigkeit von mit KI ausgestatteten Kampfmaschinen zweifeln. Die Kommandeure bezweifeln, dass solche Killerroboter mit ihrer KI in der Lage sind, die chaotische Lage auf einem Schlachtfeld immer korrekt erfassen und auswerten zu können, zumal im Krieg immer neue Situationen entstehen können, für die es keine Präzedenzfälle gibt und die Programmierer nicht vorhersehen können.
Deshalb will sich die DARPA bei ihren Forschungsanstrengungen darauf konzentrieren, dass die KI-basierten Maschinen und Programme dem Soldaten, der sie überwacht, ihre Analysen erklären, damit er sie nachvollziehen kann. Das müsste in der Kampf-Praxis in Echtzeit und unter mitunter chaotischen und gefährlichen Umständen erfolgen. Eine programmiertechnische Herausforderung der besonderen Art. Dabei geht es zudem nicht nur um rein logische Überlegungen, die sich mit Algorithmen noch relativ leicht umsetzen lassen. Sondern Soldaten aus Fleisch und Blut entscheiden ja auch aus dem Bauch heraus und unter Berücksichtigung von ethischen und eben menschlichen Aspekten. Den Maschinen fehlt der „moralische Kompass“ bei ihren Entscheidungen und genau hier soll die Forschungsarbeit ansetzen. Es dürfte eine Herkulesarbeit sein, solche KI-Maschinen zu entwickeln.
Die DARPA hat laut eigener Angabe derzeit rund 25 AI-Forschungsprojekte am Laufen.