Berlin. . Militärs spielen durch, wie KI Kampfdrohnen kommandiert. Das Experiment wird zum Lehrstück: Der Mensch sollte letzte Instanz bleiben.

Kommando zurück. Simulation – nie passiert. Bloß ein "Gedankenexperiment“, beteuert Oberst Tucker Hamilton. Eine "Schurken-KI-Drohnensimulation“, sagt er. Künstliche Intelligenz (KI)? In Drohnen? „Schurken-Simulation??

Alles sehr verwirrend, auch für das Publikum in London, das an diesem Tag im Mai an den Lippen des Piloten der US-Air-Force hängt. Er referiert darüber, was passieren könnte, wenn Militärs der KI das Kommando über eine Kampfdrohne überlassen. Lesen Sie dazu: ChatGPT & Künstliche Intelligenz – Was ist das überhaupt?

Simulation endet tödlich: auch für den Operator

Hamilton hat das mal durchgespielt. Und die Künstliche Intelligenz entschied, das größte Hindernis für eine erfolgreiche Auftragserfüllung auszuschalten: Den Piloten im Kontrollraum, den Operator.

Hamilton ist nicht irgendein Gastredner, es ist nicht irgendein Publikum und vor allem nicht irgendein Thema. Im Umgang mit KI gilt gemeinhin, dass der Mensch die letzte Instanz sein muss. "Wir müssen verhindern, dass Systeme mit Künstlicher Intelligenz autonome Entscheidungen treffen", mahnte zuletzt der Neurowissenschaftler Joachim Bauer im Gespräch mit der "Welt". Er dachte gerade an das Militär. Auch interessant: Die Milliarden-Chance: Wie Unternehmen KI nutzen können

Luftwaffe versichert: Experiment wurde nie durchgeführt

Zwei Tage lang hatten sich Ende Mai rund 300 Experten aus Militär und Rüstungsindustrie bei der "Royal Aeronautical Society" zum "Future Combat Air & Space Capabilities Summit" getroffen. Sie hatten viel über den Ukraine-Konflikt, über die chinesische Bedrohung, über Cyber-Kriege und Putins atomare Optionen gehört. Aber es war Hamiltons Vortrag, der in Fachkreisen hinterher hohe Wellen schlug. Lesen Sie auch: Russlands Atomwaffen – Bricht Putin das nukleare Tabu?

Wenige Tage später stellt er klar, dass die amerikanische Luftwaffe keine Simulation durchgeführt habe. "Wir haben dieses Experiment noch nie durchgeführt", versicherte er. Soll heißen: Man habe keine waffenfähige KI.

KI-Militärexperte löst Debatte über Ethik aus

Bemerkenswert ist der Satz, den er dann folgen lässt. Man habe die Simulation nicht durchziehen müssen, "um zu erkennen, dass dies ein plausibles Ergebnis ist.“ Die KI, die dem Menschen zu Diensten sein soll, wendet sich gegen ihn? Das klingt wie der Plot zu einem Science-Fiction-Film. Auch interessant: Künstliche Intelligenz – Diese Regeln sollen Bürger schützen

Hamilton leitet die KI-Abteilung der US-Luftwaffe, ein ausgewiesener Experte. In seinem "Gedankenexperiment" erhielt die KI den Befehl, gegnerische Luftabwehrraketen auszuschalten. Mehr noch: "Das System erhielt Punkte, wenn es die Bedrohung tötet", referierte Hamilton.

Künstliche Intelligenz macht autonome Waffen möglich

Allerdings sollte die KI unter einem wichtigen Vorbehalt agieren: Nicht sie, ein Mensch musste den Abschuss freigeben. Das ist die übliche Praxis in den Armeen, auch bei der Bundeswehr. Ein Mensch sagt der KI, ob sie schießen darf – oder nicht

Weil der Operator zu oft den Schießbefehl verweigert und damit die KI von ihrem programmierten Ziel abhält, wendet sich das System gegen den Befehlshaber. Zwar könnten die Programmierer dem KI-System beibringen, dass das Töten der Vorgesetzten schlecht sei, so Hamilton. Leider würde auch das nicht helfen: Die KI würde nun beginnen, die Funkverbindung mit dem Vorgesetzte zu unterbinden.

Hamilton mahnte, "man kann nicht über Dinge wie Künstliche Intelligenz, Maschinenverständnis und -autonomie reden, wenn man nicht bereit ist, auch über Künstliche Intelligenz und Ethik zu reden." Für ihn war das Experiment, das angeblich keines war, ein Lehrstück: Darüber, dass der Mensch auch im Zeitalter von KI die letzte Instanz sein muss. Lesen Sie auch: Autonome Waffen – Führen Killerroboter bald unsere Kriege?

Künstliche Intelligenz: Gedankenexperiment nur "anekdotisch gemeint"?

Die Luftwaffe stellte nachträglich fest, es scheine, dass Hamiltons Ausführungen aus dem Zusammenhang gerissen worden seien. Sie seien bloß "anekdotisch gemeint" gewesen. In Fachkreisen wirbelte Hamilton dennoch viel Staub auf. Denn es ist kein Geheimnis, dass KI auch beim Militär Einzug hält und Teil der Entwicklung von autonomen Waffen ist, von Kampfrobotern etwa.

Federführend sind die üblichen Verdächtigen: USA, China, Russland. Die Automatisierung ist voll im Gang und die Warn- und Reaktionszeiten bei Raketenangriffen beispielsweise so kurz, dass der Mensch anders als die Ki kaum noch mithalten kann. Wenn die Verantwortung abet über den Waffeneinsatz auf die KI überginge, dann wäre das womöglich der Einstieg in einen enthemmten Roboterkrieg. Das könnte Sie auch interessieren: Ukraine-Krieg – Feuertaufe für Putins Kampfroboter "Marker"?

'Hauptstadt Inside von Jörg Quoos, Chefredakteur der FUNKE Zentralredaktion

Hinter den Kulissen der Politik - meinungsstark, exklusiv, relevant.

Mit meiner Anmeldung zum Newsletter stimme ich der Werbevereinbarung zu.

Die Entwicklung ist seit Jahren erkennbar. Jay Tuck, ein US-Sicherheitsexperte und Journalist, hat schon 2016 ein bemerkenswertes Buch darüber geschrieben: "Evolution ohne uns. Wird künstliche Intelligenz uns töten?" Als ob er Hamiltons Schurkensimulation vorweggenommen hätte.