THEO VAN GOGH : ZIVILISATIONSBRUCH II ? / ISRAEL RATIONALISIERT KOLLEKTIVE MENSCHENVERNICHTUNG MIT KI

Eine Tötungsmaschine mit 90 Prozent Genauigkeit: Setzt Israel zur Zielauswahl im Gazastreifen auch KI ein?

Die israelischen Streitkräfte sollen im Krieg gegen die Hamas ein Programm verwenden, das selbständig menschliche Ziele zur Tötung auswählt. Laut Quellen im Militär findet vor einem Angriff praktisch keine Prüfung mehr durch Menschen statt.

Ulrich von Schwerin 06.04.2024, 05.30 Uhr NEUE ZÜRCHER ZEITUNG

In den ersten Wochen des Krieges gegen die Hamas ist die israelische Luftwaffe eine beispiellose Zahl von Angriffen im Gazastreifen geflogen. Oft wurden mehrere hundert Ziele pro Tag bombardiert. Möglich wurde dies offenbar durch ein Programm namens «Lavender», das auf künstlicher Intelligenz beruht. So berichtet es das regierungskritische israelische «+972 Magazine» unter Berufung auf sechs Quellen im Militär. Die Verwendung der KI habe erlaubt, die Zahl der ausgewählten Ziele stark zu erhöhen. Ihr Einsatz wirft aber auch ethische Fragen auf.

In früheren Kriegen seien nur wichtige Kommandanten der Hamas und anderer Terrorgruppen als «menschliche Ziele» ausgewählt worden, schreibt der israelische Journalist Yuval Abraham in dem Artikel, der am Mittwoch im «+972 Magazine» erschien. Laut den Regeln der Armee durften solche Ziele in ihren Wohnungen getötet werden, auch wenn dabei unbeteiligte Zivilisten getroffen wurden. Diese Ziele wurden genau ausgewählt und überprüft, bevor der Befehl zum Angriff erfolgte.

Nach dem Terrorangriff der Hamas am 7. Oktober sei der Armeeführung diese Methode aber zu aufwendig und langwierig erschienen. Sie habe daher rund zwei Wochen nach Kriegsbeginn den Einsatz von «Lavender» zur Zielauswahl erlaubt, schreibt «+972». Dieses Programm sei ursprünglich nur als Hilfe zur Identifizierung von Zielen entwickelt worden. Dafür verwendet es diverse Daten, um unter den 2,3 Millionen Einwohnern mutmassliche Kämpfer zu identifizieren.

Das Programm identifiziert selbständig Ziele zum Abschuss

Laut den Recherchen von «+972» sucht das Programm nach Merkmalen, die als typisch für Kämpfer von Terrorgruppen gelten. Dabei kann es sich um die Art der Telefonnutzung, die Mitgliedschaft in bestimmten Whatsapp-Gruppen oder häufige Adress- und Nummernwechsel handeln. Nachdem das Programm mit den Daten von bekannten Mitgliedern von Terrorgruppen trainiert worden war, identifizierte es eigenständig weitere Verdächtige. Auf diese Weise konnte die Armee die Liste der potenziellen Ziele in kurzer Zeit massiv ausweiten.

So habe das Programm rund 37 000 Palästinenser als mutmassliche Hamas-Kämpfer identifiziert und damit als mögliches Angriffsziel ausgewählt, schreibt das Magazin. Nach einer Überprüfung einer Stichprobe sei die Armee zum Schluss gekommen, dass die Auswahl zu 90 Prozent korrekt sei. Die Fehlerrate von 10 Prozent sei als hinnehmbar betrachtet worden. Auf eine individuelle Prüfung der Ziele durch Soldaten sei daher weitgehend verzichtet worden.

Laut den in dem Bericht zitierten Quellen in der Armee, die mit dem «Lavender»-Programm gearbeitet haben, wurde vor einem Angriff auf ein Ziel lediglich überprüft, ob es sich tatsächlich um einen Mann handelte. Denn wenn es sich um eine Frau handelte, war klar, dass es kein Kämpfer einer Terrorgruppe sein konnte. Diese Überprüfung habe lediglich 20 Sekunden gedauert, sagte ein Militärangehöriger dem Magazin. Dann sei die Befugnis zum Angriff erteilt worden.

15 bis 20 zivile Opfer galten als hinnehmbar

Anders als in früheren Kriegen wurden nicht nur wichtige Kommandanten als menschliche Ziele definiert, sondern auch einfache Kämpfer. Dies bedeutete, dass auch sie in ihren Wohnungen getötet werden durften. Mehrere israelische Militärvertreter sagten dem Magazin, bei Angriffen auf Kämpfer in ihren Wohnungen sei die Tötung von 15 bis 20 unbeteiligten Zivilisten als hinnehmbar betrachtet worden. Dies ist viel: Die USA und andere westliche Staaten sehen eine solch grosse Zahl ziviler Opfer als unverhältnismässig hoch.

Laut den Recherchen von «+972» kam nach der Identifizierung eines Ziels ein weiteres Programm zum Einsatz. Dieses Programm namens «Wo ist Papa?» verfolge die Bewegungen von menschlichen Zielen und signalisiere, wenn sie ihre Wohnung betreten. Dann erfolge der Befehl zum Angriff. Oft sei dies nachts, wenn auch der Rest der Familie zu Hause ist. Für die Armee seien Angriffe auf Kämpfer in ihren Wohnungen am einfachsten, heisst es in dem Bericht.

Einige der sechs vom «+972 Magazine» zitierten Quellen im Militär sahen den Einsatz des KI-Programms kritisch, andere priesen seinen Nutzen zur Zielauswahl. Ein Kommandant des 8200 Artificial Intelligence Center der israelischen Armee hatte bereits im Februar 2023 enthüllt, dass die Armee im letzten Gaza-Krieg 2021 KI zur Zielauswahl eingesetzt habe. Die Armee bestritt auf Nachfrage des «+972 Magazine» jedoch die Existenz solcher KI-Programme.

Entscheidet eine Maschine über Leben und Tod?

Der Journalist Yuval Abraham hatte erst im November im «+972 Magazine» über den Einsatz eines anderen KI-Programms namens «The Gospel» berichtet. Anders als «Lavender» soll es nicht zur Identifizierung von mutmasslichen Kämpfern, sondern von Orten dienen. Laut der Recherche, die sich auf die Aussagen von sieben Mitarbeitern israelischer Geheimdienste stützte, werden auch private Wohnungen von Kämpfern als militärische Ziele identifiziert.

Sollte die Armee tatsächlich KI verwenden, um Ziele für Angriffe auszuwählen, ohne die Ergebnisse noch einmal zu überprüfen, würde dies ernste ethische Fragen aufwerfen. Denn dies würde bedeuten, dass sie die Entscheidung über Leben und Tod einer Maschine überträgt. Die Armee steht ohnehin wegen der hohen Zahl ziviler Opfer unter Beschuss. Ihre Kritiker werfen ihr Kriegsverbrechen vor und halten ihr Vorgehen für unverhältnismässig. Israel verweist zur Verteidigung darauf, dass die Hamas Zivilisten gezielt als Schutzschilde missbrauche.

Dieses Argument zieht aber nicht, wenn die Armee bewusst darauf wartet, dass Kämpfer zu ihren Familien nach Hause zurückkehren, bevor sie einen Luftangriff anordnet. Laut der «+972»-Recherche passieren immer wieder verhängnisvolle Fehler: Nicht nur identifiziere «Lavender» unbeteiligte Zivilisten als Hamas-Kämpfer, es würden auch Wohnungen bombardiert, ohne dass die Zielperson dort sei. Wer getroffen werde und wie viele Zivilisten dabei zu Tode kämen, bleibe meist unklar. Denn die Armee überprüfe in der Regel nach einem Angriff nicht die Zahl der Opfer, sondern gehe zum nächsten Ziel über.