Jerusalem. Künstliche Intelligenz soll im Gaza-Krieg eine größere Rolle spielen als bisher angenommen. Auf Kosten von unschuldigen Zivilisten?

Bei einem Luftschlag in der Stadt Rafah im Süden Gazas in der Nacht zum vergangenen Sonntag kamen 17 Kinder und zwei Frauen ums Leben. Angehörige sagten in Interviews, sie könnten nicht verstehen, warum die israelische Armee schlafende Kinder angreife.

Vielleicht wurde die Entscheidung zum Luftschlag aber auch gar nicht von den Profis der israelischen Armee getroffen – sondern von einer Maschine. Israels Armee hat im Februar 2023 zugegeben, dass sie sich in der Auswahl ihrer Beschussziele auf Künstliche Intelligenz verlässt. Laut Recherchen israelischer Journalisten soll die KI in diesem Gaza-Krieg aber noch viel mehr Macht haben als bisher angenommen. Die KI-Maschine „Lavender” soll für Israels Streitkräfte eine Liste von über 30.000 Zielpersonen erstellt haben, die zum Abschuss freigegeben wurden. Die Armee bestreitet das.

Laut den Recherchen der israelischen Nachrichtenplattformen +972 und Local Call soll die Armee in der ersten Kriegsphase fast ausschließlich auf KI zurückgegriffen haben. Die Bodenoffensive war noch nicht im Gange. Der Auftrag der Armee war, aus der Luft so viele Kämpfer der Hamas und des Palästinensischen Islamischen Dschihad (PIJ) wie möglich zu töten, um das Risiko für die Bodentruppen zu minimieren.

Studie: KI aggressiver als menschliche Kommandanten der Armee

Das Ergebnis: Von den mehr als 34.000 Toten auf palästinensischer Seite, die der Krieg in den vergangenen sechseinhalb Monaten laut UN-Angaben gefordert hat, kam fast die Hälfte schon in den ersten sechs Kriegswochen ums Leben.

Befürworter des Einsatzes Künstlicher Intelligenz im Krieg argumentieren, dass sie präziser und weniger fehleranfällig sei als menschliches Kalkül. Ein Algorithmus kann viele Fakten kombinieren und daraus Schlüsse ableiten. Ein Mensch hingegen verarbeitet nicht mehr als ein paar Informationen, bis er zu einer Entscheidung kommt – und dafür braucht er ein Vielfaches so lange. Im Krieg, wo jede Sekunde zählt, hat die Künstliche Intelligenz daher viele Vorteile.

Kritiker werfen ein, dass KI nur so etwas wie Pseudo-Objektivität vortäuscht. Jeder Algorithmus ist denmach so voreingenommen wie die Menschen, die ihn programmiert haben. Laut einer Studie der Universität Standford soll KI im Krieg sogar die Tendenz haben, aggressiver vorzugehen als menschliche Kommandanten der Armee.

KI-Maschine Lavender: Fehlerquote von zehn Prozent

Israels Armee bestreitet den Einsatz von Lavender. Auf Fragen nach der Rolle von KI im Krieg erhalten Journalisten meist keine oder nur sehr allgemeine Antworten. Das ist wenig verwunderlich – keine Armee der Welt lässt sich gerne in den Werkzeugkasten blicken, schon gar nicht während eines laufenden Kriegs. Stets wird aber betont, dass Soldaten die Letztkontrolle bei der Auswahl von Schusszielen haben. Jene Kommandanten der Armee, die unter der Bedingung strenger Vertraulichkeit mit den investigativen Reportern von +972 gesprochen haben, stellen es anders dar.

Sie erzählten, dass die Armee nach einer Anfangsphase des Gaza-Kriegs eine Stichprobenrechnung erstellt hat. Ziel der Rechnung war zu überprüfen, wie oft sich die KI getäuscht hat. Man kam zum Ergebnis, dass Lavender in zehn Prozent der Fälle falsch lag. Unter tausend getöteten Personen waren laut dieser Rechnung also hundert unschuldige Zivilisten. Die Armee soll diese Fehlerquote als zufriedenstellend erachtet haben. Von da an, so erzählen die anonymen Quellen, habe man der KI mehr Freiraum gelassen, Abschussziele zu erstellen, die dann ohne weitere Prüfung beschossen wurden.

Dafür ist aber nicht allein Lavender verantwortlich. Der Einsatz der Maschine wurde zur Notwendigkeit, weil die Armee ihre allgemeinen Feuerrichtlinien geändert hat. Das belegen nicht nur die Recherchen von +972. Auch die Schilderungen eines Offiziers, der anynom bleiben möchte, bestätigen dies. In diesem Krieg habe die Armee die Vorschriften gelockert, sagt er.

Israelische Armee: Geringere Präzision als in früheren Gaza-Kriegen

Das Ziel war nun, nicht nur Befehlshaber der Hamas zu töten, sondern auch möglichst viele Mitglieder der unteren Ebenen im militärischen Arm der Hamas. Da der Einsatz von Präzisionsschlägen vergleichsweise teuer ist, vor allem dann, wenn man sie für eine so große Anzahl an Hamas-Mitgliedern anwendet, habe man sich für sogenannte „dumb bombs” entschieden – übersetzt „dumme Bomben”, die große Streueffekte haben. Sie können mit jeder gesuchten Person immer auch eine größere Anzahl an Unschuldigen mit in den Tod reißen.

All diese Vorwürfe sind von der Armee nicht bestätigt. Wenn man aktuelle Opferzahlen mit den Toten in früheren Gaza-Kriegen vergleicht, zeigt sich aber, dass man diesmal von einer geringeren Präzision ausgehen muss. Im Krieg 2014 kamen in Gaza 2300 Menschen ums Leben – in 49 Tagen. Im aktuellen Krieg gab es nach fünfzig Tagen bereits 15.000 Tote.

Die israelische Armee erklärte nach 27 Kriegstagen, man habe bereits 12.000 militärische Ziele getroffen. Das sind 444 Ziele pro Tag. Zum Vergleich: Im Gaza-Krieg 2014 sprach die Armee von 164 Zielen pro Tag.

Lesen Sie auch: Tod per Knopfdruck – So plant Kiew den intelligenten Krieg

Die Debatte über KI im Krieg ist relativ jung. Selbst die hochmoderne israelische Armee hat ihren ersten KI-gestützten Krieg erst vor drei Jahren geführt, in der elftätigigen Gaza-Operation im Mai 2021. Da die internationalen Regeln für Kriegsführung immer erst mit Verzögerung an die Wirklichkeit angepasst werden, gibt es keine Standards dafür, was KI darf und was nicht. Kritiker warnen davor, dass Gaza nur ein Testlabor ist – und dass KI-Lösungen wie Lavender bald auf der ganzen Welt eingesetzt werden könnten.