MESOP MIDEAST WATCH POSTMODERNE WAHNWELTEN : ISRAEL HAT AUSCHWITZ RATIONALISIERT !  DIE ZIONISTISCHE KI STEUERT DIE MASSENVERNICHTUNG:

„Lavender“: Die KI-Maschine, die Israels Bombenanschlag in Gaza leitet

Die israelische Armee hat Zehntausende von Bewohnern des Gazastreifens als Verdächtige für die Ermordung bezeichnet und ein KI-Targetsystem mit wenig menschlicher Aufsicht und einer freizügigen Politik für die Opfer verwendet, +972 und Local Call enthüllt.

Von Yuval Abraham  FILMEMACHER IN JERUSALEM – 3. April 2024 The Landline  +972s wöchentlicher Newsletter

Im Jahr 2021 wurde ein Buch mit dem Titel „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ auf Englisch unter dem Pseudonym „Brigadier General Y.S.“ veröffentlicht. Darin plädiert der Autor – ein Mann, von dem wir bestätigten, dass er der derzeitige Kommandeur der israelischen Eliteeinheit 8200 ist – für die Entwicklung einer speziellen Maschine, die schnell riesige Datenmengen verarbeiten könnte, um Tausende von potenziellen „Zielen“ für Militärschläge in der Hitze eines Krieges zu generieren. Eine solche Technologie, schreibt er, würde das lösen, was er als “menschlichen Engpass sowohl für die Suche nach den neuen Zielen als auch für die Entscheidungsfindung zur Genehmigung der Ziele” bezeichnete.

Eine solche Maschine, so stellt sich heraus, existiert tatsächlich. Eine neue Untersuchung des +972 Magazines und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm namens „Feind“ entwickelt hat, das hier zum ersten Mal vorgestellt wurde. Laut sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Krieges im Gazastreifen in der Armee gedient haben und sich aus erster Hand mit dem Einsatz von KI beteiligt hatten, um Ziele für die Ermordung zu generieren, hat Lavender eine zentrale Rolle bei den beispiellosen Bombenangriffen auf Palästinenser gespielt, insbesondere in den frühen Phasen des Krieges. Tatsächlich war der Einfluss der Angriffe auf die Operationen des Militärs so, dass sie im Wesentlichen die Ergebnisse der KI-Maschine „als ob es eine menschliche Entscheidung wäre“.

Formal soll das Lavender-System alle mutmaßlichen Aktivisten in den militärischen Flügeln der Hamas und des Palästinensischen Islamischen Dschihad (PIJ) markieren, einschließlich niedrigerer, als potenzielle Bombenziele. Die Quellen sagten +972 und Local Call, dass sich die Armee in den ersten Wochen des Krieges fast vollständig auf Lavender verließ, der bis zu 37.000 Palästinenser als mutmaßliche Militante – und ihre Häuser – für mögliche Luftangriffe taktete.

Während der Anfangsphase des Krieges gab die Armee den Offizieren die Erlaubnis, Lavenders Tötungslisten anzunehmen, ohne die Anforderung, gründlich zu überprüfen, warum die Maschine diese Entscheidungen getroffen hat, oder die Rohnachrichtendaten zu untersuchen, auf denen sie basieren. Eine Quelle gab an, dass menschliches Personal oft nur als „Gummi-Stempel“ für die Entscheidungen der Maschine diente, und fügte hinzu, dass sie normalerweise nur etwa 20 Sekunden für jedes Ziel verwenden würden, bevor sie ein Bombenanschlag genehmigten – nur um sicherzustellen, dass das von Lavender markierte Ziel männlich ist. Dies war trotz des Wissens, dass das System in etwa 10 Prozent der Fälle das macht, was als “Fehler” angesehen wird, und es ist bekannt, dass es gelegentlich Personen kennzeichnet, die nur eine lose Verbindung zu militanten Gruppen oder überhaupt keine Verbindung haben.

Darüber hinaus griff die israelische Armee systematisch die Zielpersonen an, während sie in ihren Häusern waren – normalerweise nachts, während ihre ganze Familie anwesend waren – und nicht während der militärischen Aktivitäten. Den Quellen zufolge lag dies daran, dass es von dem, was sie als nachrichtendienstliche Sicht betrachteten, einfacher war, die Personen in ihren Privathäusern zu finden. Zusätzliche automatisierte Systeme, darunter eines namens “Where’s Daddy?”, das hier auch zum ersten Mal enthüllt wurde, wurden speziell verwendet, um die Zielpersonen zu verfolgen und Bombenanschläge durchzuführen, als sie die Residenzen ihrer Familie betreten hatten.

Das Ergebnis, wie die Quellen aussageten, ist, dass Tausende von Palästinensern – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren – durch israelische Luftangriffe ausgelöscht wurden, insbesondere in den ersten Kriegswochen, wegen der Entscheidungen des KI-Programms.

“Wir waren nicht daran interessiert, [Hamas]-Aktivisten nur zu töten, wenn sie in einem Militärgebäude waren oder eine militärische Aktivität hatten”, sagte A., ein Geheimdienstoffizier, +972 und Local Call. „Im Gegenteil, die IDF bombardierte sie ohne zu zögern in Häusern, als erste Option. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist so gebaut, dass es in diesen Situationen sucht.“

Die Lavender-Maschine schließt sich einem anderen KI-System an, „Das Evangelium“, über das Informationen in einer früheren Untersuchung von +972 und Local Call im November 2023 sowie in den eigenen Publikationen des israelischen Militärs enthüllt wurden. Ein grundlegender Unterschied zwischen den beiden Systemen ist die Definition des Ziels: während das Evangelium Gebäude und Strukturen markiert, von denen die Armee behauptet, dass Militante operieren, markiert Lavender Menschen – und setzt sie auf eine Tötungsliste.

Darüber hinaus zog es die Armee zufolge nur ungelenkte Raketen, die als „dummen“ als „dummen“ Bomben bekannt sind (im Gegensatz zu „intelligenten“ Präzisionsbomben (im Gegensatz zu „intelligenten“ Präzisionsbomben) bezeichneten, die ganze Gebäude auf der Oberseite ihrer Insassen zerstören und erhebliche Verluste verursachen können. “Man will keine teuren Bomben auf unwichtige Leute verschwenden – es ist sehr teuer für das Land und es gibt einen Mangel [dieser Bomben]”, sagte C., einer der Geheimdienstoffiziere. Eine andere Quelle sagte, dass sie persönlich die Bombardierung von “Hunderten” von Privathäusern mutmaßlicher Junior-Aktivisten genehmigt hätten, die von Lavender markiert waren, wobei viele dieser Angriffe Zivilisten und ganze Familien als „Kollateralschäden“ töteten.

In einem beispiellosen Schritt, so zwei der Quellen, entschied die Armee auch in den ersten Wochen des Krieges, dass es für jeden jungen Hamas-Aktivisten, den Lavender markierte, es erlaubt war, bis zu 15 oder 20 Zivilisten zu töten; in der Vergangenheit genehmigte das Militär keine “Kollateralschäden” bei Morden an niedrigrangigen Militanten. Die Quellen fügten hinzu, dass die Armee bei mehreren Gelegenheiten die Tötung von mehr als 100 Zivilisten bei der Ermordung eines einzigen Kommandeurs durch das Ziel eines einzigen Kommandeurs genehmigte, für den Fall, dass das Ziel ein hochrangiger Hamas-Beamter im Rang eines einzigen Befehlshabers war.

Die folgende Untersuchung ist nach den sechs chronologischen Phasen der hochautomatisierten Zielproduktion der israelischen Armee in den ersten Wochen des Gaza-Krieges organisiert. Erstens erklären wir die Lavender-Maschine selbst, die Zehntausende von Palästinensern mithilfe von KI markierte. Zweitens zeigen wir das „Wo-Papa?“-System, das diese Ziele verfolgte und der Armee signalisierte, als sie ihre Familienhäuser betraten. Drittens beschreiben wir, wie „dumst“ Bomben ausgewählt wurden, um diese Häuser zu treffen.

Viertens erklären wir, wie die Armee die erlaubte Anzahl von Zivilisten lockerte, die bei der Bombardierung eines Ziels getötet werden konnten. Fünftens stellen wir fest, wie automatisierte Software die Menge der Nicht-Kämpfer in jedem Haushalt ungenau berechnete. Und als Sechster zeigen wir, wie bei mehreren Gelegenheiten, wenn ein Haus getroffen wurde, normalerweise nachts, das individuelle Ziel manchmal überhaupt nicht drinnen war, weil Militäroffiziere die Informationen nicht in Echtzeit überprüften.

SCHRITT 1: GENERATING

“Sobald Sie automatisch gehen, wird die Zielgenerierung verrückt”

In der israelischen Armee wurde in der Vergangenheit der Begriff „menschliches Ziel“ an einen hochrangigen Militärangehörigen verwiesen, der nach den Regeln der Internationalen Justizabteilung des Militärs in ihrer Privatwohnung getötet werden kann, auch wenn Zivilisten in der Nähe sind. Geheimdienstquellen sagten +972 und Local Call, dass während der vorherigen israelischen Kriege, da dies eine “besonders brutale” Art war, jemanden zu töten – oft durch das Töten einer ganzen Familie neben dem Ziel – solche menschlichen Ziele waren sehr sorgfältig markiert und nur hochrangige Militärkommandanten wurden in ihren Häusern bombardiert, um das Prinzip des Völkerrechts aufrechtzuerhalten.

Aber nach dem 7. Oktober – als Hamas-geführte Militante einen tödlichen Angriff auf die südisraelischen Gemeinden starteten, bei dem etwa 1.200 Menschen getötet und 240 entführt wurden – verfolgte die Armee, so die Quellen, einen dramatisch anderen Ansatz. Im Rahmen der „Operation Eisenschwerter“ beschloss die Armee, alle Aktivisten des militärischen Flügels der Hamas als menschliche Ziele zu bezeichnen, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Und das hat alles verändert.

Die neue Politik stellte auch ein technisches Problem für den israelischen Geheimdienst dar. In früheren Kriegen musste ein Offizier, um die Ermordung eines einzigen menschlichen Ziels zu genehmigen, einen komplexen und langwierigen „Beschuldigungs“-Prozess durchlaufen: die Beweise, dass die Person tatsächlich ein hochrangiges Mitglied des militärischen Flügels der Hamas war, herauszufinden, wo er lebte, seine Kontaktinformationen und schließlich wissen, wann er in Echtzeit zu Hause war. Wenn die Liste der Ziele nur ein paar Dutzend leitende Mitarbeiter zählte, konnte das Geheimdienstpersonal die Arbeit, die an der Inkriminalisierung und Lokalisierung beteiligt war, individuell bewältigen.

Sobald die Liste jedoch auf Zehntausende von untergeordneten Aktivisten erweitert wurde, dachte die israelische Armee, dass sie sich auf automatisierte Software und künstliche Intelligenz setzen musste. Das Ergebnis, so bezeugen die Quellen, war, dass die Rolle des menschlichen Personals bei der Inklestierung von Palästinensern als Militäraktivisten beiseite geschoben wurde, und KI stattdessen die meiste Arbeit tat. Laut vier Quellen, die mit +972 und Local Call sprachen, hat Lavender – der entwickelt wurde, um menschliche Ziele im aktuellen Krieg zu schaffen – etwa 37.000 Palästinenser als mutmaßliche “Hamas-Militante” bezeichnet, die meisten von ihnen jünger, für die Ermordung (der IDF-Sprecher leugnete die Existenz einer solchen Tötungsliste in einer Erklärung zu +972).

“Wir wussten nicht, wer die Junior-Agenten waren, weil Israel sie [vor dem Krieg] nicht routinemäßig verfolgte”, erklärte der leitende Offizier B. zu +972 und Local Call und beleuchtete den Grund für die Entwicklung dieser speziellen Zielmaschinerie für den aktuellen Krieg. “Sie wollten es uns ermöglichen, [die Junior-Agenten] automatisch anzugreifen. Das ist der Heilige Gral. Sobald man automatisch geht, wird die Zielgeneration verrückt.“

Die Quellen sagten, dass die Genehmigung zur automatischen Annahme der Tötungslisten von Lavender, die zuvor nur als Hilfswerkzeug verwendet worden waren, etwa zwei Wochen nach dem Krieg gewährt wurde, nachdem das Geheimdienstpersonal “manuell” die Genauigkeit einer zufälligen Stichprobe mehrerer hundert vom KI-System ausgewählter KI-System überprüft hatte. Als diese Probe herausfand, dass Lavenders Ergebnisse bei der Identifizierung der Zugehörigkeit eines Individuums zur Hamas zu 90 Prozent genau geworden waren, genehmigte die Armee die umfassende Nutzung des Systems. Von diesem Moment an sagten Quellen, dass, wenn Lavender entschied, dass eine Person ein Militant in der Hamas sei, sie im Wesentlichen gebeten wurden, dies als Befehl zu behandeln, ohne die Anforderung, unabhängig zu überprüfen, warum die Maschine diese Wahl getroffen hat, oder die Rohnachrichtendaten zu untersuchen, auf denen sie basiert.

“Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten”, sagte B.. „Wir haben Tausende von Menschen herausgenommen. Wir haben sie nicht einzeln durchgemacht – wir haben alles in automatisierte Systeme gesteckt, und sobald eines von [der markierten Personen] zu Hause war, wurde er sofort zum Ziel. Wir bombardierten ihn und sein Haus.“

“Es war sehr überraschend für mich, dass wir gebeten wurden, ein Haus zu bombardieren, um einen Bodensoldaten zu töten, dessen Bedeutung bei den Kämpfen so gering war”, sagte eine Quelle über den Einsatz von KI, um angeblich niedrige Militante zu markieren. „Ich habe diese Ziele genannt: Müllziele. Dennoch fand ich sie ethischer als die Ziele, die wir nur für “Deterrence” “Hochhäuser” bombardiert haben, die evakuiert und gestürzt werden, nur um Zerstörung zu verursachen.“

Die tödlichen Folgen dieser Lockerung der Restriktionen in der Anfangsphase des Krieges waren erschütternd. Nach Angaben des palästinensischen Gesundheitsministeriums in Gaza, auf die sich die israelische Armee seit Kriegsbeginn fast ausschließlich stützt, tötete Israel in den ersten sechs Kriegswochen etwa 15.000 Palästinenser – fast die Hälfte der bisherigen Zahl der Todesopfer –, bis am November ein einwöchiger Waffenstillstand vereinbart wurde. 24.

“Je mehr Informationen und Vielfalt, desto besser”

Die Lavender-Software analysiert Informationen, die an den meisten der 2,3 Millionen Einwohner des Gazastreifens durch ein System der Massenüberwachung gesammelt wurden, und bewertet und bewertet dann die Wahrscheinlichkeit, dass jede bestimmte Person im militärischen Flügel der Hamas oder des Palästinensischen Islamischen Jihad aktiv ist. Laut Quellen gibt die Maschine fast jeder einzelnen Person in Gaza eine Bewertung von 1 bis 100 und drückt aus, wie wahrscheinlich es ist, dass sie ein Militanter sind.

Lavender lernt, Merkmale der bekannten Hamas- und PIJ-Aktivisten zu identifizieren, deren Informationen als Trainingsdaten an die Maschine gekoppelt wurden, und dann diese gleichen Eigenschaften – auch „Features“ genannt – unter der allgemeinen Bevölkerung zu finden, erklärten die Quellen. Eine Person, die mehrere verschiedene belastende Merkmale aufweist, wird eine hohe Bewertung erreichen und wird so automatisch zu einem potenziellen Ziel für ein Attentat.

In „The Human-Machine Team“, dem Buch, auf das zu Beginn dieses Artikels verwiesen wurde, plädiert der derzeitige Kommandant der Einheit 8200 für ein solches System, ohne Lavender namentlich zu verweisen. (Der Kommandant selbst wird auch nicht genannt, aber fünf Quellen in 8200 bestätigten, dass der Kommandant der Autor ist, wie auch Haaretz berichtet.) Der Kommandeur beschreibt das menschliche Personal als einen „Engpass“, der die Kapazität der Armee während einer Militäroperation einschränkt: “Wir [Menschen] können nicht so viele Informationen verarbeiten. Es spielt keine Rolle, wie viele Menschen Sie beauftragt haben, Ziele während des Krieges zu produzieren – Sie können immer noch nicht genug Ziele pro Tag produzieren.“

Die Lösung für dieses Problem, sagt er, sei künstliche Intelligenz. Das Buch bietet einen kurzen Leitfaden zum Bau einer „Zielmaschine“, ähnlich wie Lavender, basierend auf KI- und Machine-Learning-Algorithmen. In diesem Leitfaden sind mehrere Beispiele für die „Hundert und Tausende“ von Funktionen enthalten, die die Bewertung einer Person erhöhen können, wie zum Beispiel in einer Whatsapp-Gruppe mit einem bekannten Militanten zu sein, alle paar Monate das Handy zu wechseln und Adressen häufig zu wechseln.

„Je mehr Informationen und je vielfältiger, desto besser“, schreibt der Kommandant. „Visuelle Informationen, Mobilfunk, Social-Media-Verbindungen, Schlachtfeldinformationen, Telefonkontakte, Fotos.“ Während die Menschen diese Merkmale zunächst auswählen, fährt der Kommandant fort, wird die Maschine im Laufe der Zeit kommen, um Merkmale allein zu identifizieren. Dies, sagt er, kann es Militärs ermöglichen, „zehntausende Ziele“ zu schaffen, während die tatsächliche Entscheidung, ob sie angegriffen werden oder nicht, eine menschliche bleiben wird.

Das Buch ist nicht das einzige Mal, dass ein hochrangiger israelischer Kommandant die Existenz menschlicher Zielmaschinen wie Lavender ankeutet. +972 und Local Call haben Aufnahmen von einem privaten Vortrag erhalten, der vom Kommandeur des geheimen Data Science and AI Center der Einheit 8200 gegeben wurde: „Col. Yoav, “an der KI-Woche der Universität Tel Aviv im Jahr 2023, über die damals in den israelischen Medien berichtet wurde.

In dem Vortrag spricht der Kommandeur von einer neuen, ausgeklügelten Zielmaschine, die von der israelischen Armee verwendet wird und „gefährliche Menschen“ anhand ihrer Größe mit bestehenden Listen bekannter Militanter erkennt, auf deren Ausbildung sie trainiert wurde. „Mit dem System gelang es uns, die Kommandeure des Hamas-Raketenkommandos zu identifizieren“, „Col. Yoav“, sagte in dem Vortrag unter Bezugnahme auf Israels Militäroperation im Mai 2021 in Gaza, als die Maschine zum ersten Mal eingesetzt wurde.

Die Vortragsvortragsfolien, die auch von +972 und Local Call erhalten wurden, enthalten Illustrationen, wie die Maschine funktioniert: Es werden Daten über bestehende Hamas-Aktivisten ernten, sie lernt, ihre Merkmale zu bemerken, und dann bewertet sie andere Palästinenser, basierend darauf, wie ähnlich sie mit den Militanten sind.

„Wir ordnen die Ergebnisse ein und bestimmen die Schwelle [an der ein Ziel angegriffen werden kann“, „Col. Yoav“ sagte in dem Vortrag und betonte, dass „seventuell Menschen aus Fleisch und Blut die Entscheidungen treffen. Im Verteidigungsreich legen wir ethisch gesehen viel Wert darauf. Diese Tools sollen [Geheimdienstoffizier] helfen, ihre Barrieren zu durchbrechen.“

In der Praxis jedoch sagen Quellen, die Lavender in den letzten Monaten verwendet haben, dass menschliche Agenturen und Präzision durch Massenzielbildung und Ledalität ersetzt wurden.

„Es gab keine „Null-Fehler“-Politik

B., ein leitender Offizier, der Lavender benutzte, wiederholte zu +972 und Local Call, dass Offiziere im aktuellen Krieg nicht verpflichtet waren, die Bewertungen des KI-Systems unabhängig zu überprüfen, um Zeit zu sparen und die Massenproduktion menschlicher Ziele ohne Hindernisse zu ermöglichen.

“Alles war statistisch, alles war ordentlich – es war sehr trocken”, sagte B.. Er stellte fest, dass dieser Mangel an Aufsicht erlaubt war, obwohl interne Kontrollen zeigten, dass Lavenders Berechnungen nur 90 Prozent der Zeit als korrekt angesehen wurden; mit anderen Worten, es war im Voraus bekannt, dass 10 Prozent der für die Ermordung geplanten menschlichen Ziele überhaupt keine Mitglieder des militärischen Arms der Hamas waren.

Zum Beispiel erklärten Quellen, dass die Lavender-Maschine manchmal irrtümlich Personen markierte, die Kommunikationsmuster hatten, die bekannten Hamas- oder PIJ-Aktivisten ähneln – einschließlich Polizei- und Zivilschutzmitarbeitern, Militanten, Bewohnern, die zufällig einen Namen und einen Spitznamen hatten, der mit dem eines Aktivisten identisch ist, und der Bewohner des Gazastreifens, die uns ein Beamter waren.

„Wie nah muss eine Person der Hamas sein, um mit der Organisation verbunden zu sein, die der Organisation innewohnt ist?“, sagte eine Quelle, die Lavenders Unakzitimität kritisierte. „Es ist eine vage Grenze. Ist eine Person, die kein Gehalt von der Hamas erhält, aber ihnen bei allen möglichen Dingen hilft, einem Hamas-Aktivisten? Ist jemand, der in der Vergangenheit in der Hamas war, aber heute nicht mehr da ist, ein Hamas-Aktivist? Jedes dieser Merkmale – Eigenschaften, die eine Maschine als verdächtig markiert – ist ungenau.“

 

Ähnliche Probleme gibt es mit der Fähigkeit von Zielmaschinen, das Telefon zu bewerten, das von einer Person verwendet wird, die für einen Mord markiert ist. „Im Krieg wechseln die Palästinenser die ganze Zeit die Telefone“, sagte die Quelle. “Die Leute verlieren den Kontakt zu ihren Familien, geben ihr Telefon an einen Freund oder eine Frau, verlieren es vielleicht. Es gibt keine Möglichkeit, sich zu 100 Prozent auf den automatischen Mechanismus zu setzen, der bestimmt, welche [Telefon]-Nummer wem gehört.“

Den Quellen zufolge wusste die Armee, dass die minimale menschliche Überwachung diese Fehler nicht entdecken würde. „Es gab keine Null-Fehler-Politik. Fehler wurden statistisch behandelt“, sagte eine Quelle, die Lavendel benutzte. “Aufgrund des Umfangs und des Ausmaßes war das Protokoll, dass, auch wenn Sie nicht sicher wissen, dass die Maschine stimmt, Sie wissen, dass es statistisch gesehen in Ordnung ist. Also geht man dafür.“

„Es hat sich bewährt“, sagte B., die Seniorenquelle. „Es gibt etwas an dem statistischen Ansatz, das Sie auf eine bestimmte Norm und einen bestimmten Standard setzt. Es gab eine unlogische Menge [Bombardierungen] in dieser Operation. Das ist beispiellos, in meiner Erinnerung. Und ich habe viel mehr Vertrauen in einen statistischen Mechanismus als ein Soldat, der vor zwei Tagen einen Freund verloren hat. Alle dort, auch ich, haben am 7. Oktober Menschen verloren. Die Maschine tat es kalt. Und das machte es einfacher.“

Eine andere Geheimdienstquelle, die die Abhängigkeit von den von Lavendern erzeugten Tötungslisten palästinensischer Verdächtiger verteidigte, argumentierte, dass es sich lohnt, einen Geheimdienstoffizier zu investieren, nur um die Informationen zu überprüfen, ob das Ziel ein hochrangiger Kommandeur in der Hamas war. „Aber wenn es um einen Junior-Militanten geht, möchte man keine Personal- und Zeit darin investieren“, sagte er. „Im Krieg gibt es keine Zeit, jedes Ziel zu belasten. Sie sind also bereit, die Fehlerspanne des Einsatzes künstlicher Intelligenz zu übernehmen, Kollateralschäden zu riskieren und Zivilisten zu sterben und versehentlich anzugreifen und damit zu leben.“

  1. sagte, dass der Grund für diese Automatisierung ein ständiger Vorstoß sei, um mehr Ziele für das Attentat zu generieren. “An einem Tag ohne Ziele [dessen Merkmalsbewertung ausreichte, um einen Streik zu genehmigen], griffen wir an einer niedrigeren Schwelle an. Wir wurden ständig unter Druck gesetzt: „Bring uns mehr Ziele.“ Sie schrien uns wirklich an. Wir haben unsere Ziele sehr schnell abgetötet.“

Er erklärte, dass bei der Senkung der Ratingschwelle Lavenders mehr Menschen als Ziele für Streiks markieren würden. „Auf dem Höhepunkt gelang es dem System, 37.000 Menschen als potenzielle menschliche Ziele zu generieren“, sagte B. „Aber die Zahlen haben sich ständig geändert, denn es hängt davon ab, wo man die Messlatte dessen legt, was ein Hamas-Aktivist ist. Es gab Zeiten, in denen ein Hamas-Aktivist breiter definiert wurde, und dann begann die Maschine, uns alle Arten von Zivilschutzpersonal, Polizisten, zu bringen, auf denen es eine Schande wäre, Bomben zu verschwenden. Sie helfen der Hamas-Regierung, aber sie gefährden nicht wirklich Soldaten.“

Eine Quelle, die mit dem militärischen Datenwissenschaftsteam arbeitete, das Lavender trainierte, sagte, dass Daten, die von Mitarbeitern des von der Hamas geführten Ministeriums für innere Sicherheit gesammelt wurden, die er nicht als Militante betrachtet, ebenfalls in die Maschine eingesendet wurden. “Ich war beunschigt von der Tatsache, dass sie, als Lavender trainiert wurde, den Begriff “Hamas-Agent” locker verwendeten und Personen, die Zivilschutzmitarbeiter waren, in den Schulungsdatensatz einschlossen“, sagte er.

Die Quelle fügte hinzu, dass, selbst wenn man glaubt, dass diese Menschen es verdienen, getötet zu werden, die Schulung des Systems auf der Grundlage ihrer Kommunikationsprofile Lavender eher dazu brachte, Zivilisten versehentlich auszuwählen, wenn seine Algorithmen auf die allgemeine Bevölkerung angewendet wurden. “Da es sich um ein automatisches System handelt, das nicht manuell von Menschen betrieben wird, ist die Bedeutung dieser Entscheidung dramatisch: Sie setzt viele Menschen mit einem zivilen Kommunikationsprofil als potenzielle Ziele ein.“

“Wir haben nur überprüft, ob das Ziel ein Mann ist”

Das israelische Militär weist diese Behauptungen rundweg zurück. In einer Erklärung an +972 und Local Call bestritt der IDF-Sprecher, künstliche Intelligenz zu verwenden, um Ziele zu belasten, und sagte, dass dies nur „Hilfswerkzeuge sind, die Offiziere bei der Beschuldigung unterstützen“. In der Erklärung hieß es weiter: „Auf jeden Fall ist eine unabhängige Prüfung durch einen [Geheimdienst-]Analysten erforderlich, die bestätigt, dass die identifizierten Ziele legitime Angriffsziele sind, in Übereinstimmung mit den in IDF-Richtlinien und im Völkerrecht festgelegten Bedingungen.”

Quellen sagten jedoch, dass das einzige menschliche Überwachungsprotokoll vor der Bombardierung der Häuser mutmaßlicher „Junior“-Kämpfer, die von Lavender markiert wurden, darin bestand, einen einzigen Scheck durchzuführen: sicherzustellen, dass das KI-gewählte Ziel eher männlich als weiblich ist. Die Annahme in der Armee war, dass, wenn das Ziel eine Frau war, die Maschine wahrscheinlich einen Fehler gemacht hatte, weil es keine Frauen in den Reihen der militärischen Flügel von Hamas und PIJ gibt.

“Ein Mensch musste das Ziel nur für ein paar Sekunden überprüfen”, sagte B. und erklärte, dass dies das Protokoll wurde, nachdem er erkannt hatte, dass das Lavender-System die meiste Zeit „rechtbekam“. „Zuerst haben wir Kontrollen durchgeführt, um sicherzustellen, dass die Maschine nicht verwirrt wurde. Aber irgendwann verließen wir uns auf das automatische System, und wir überprüften nur, dass [das Ziel] ein Mann war – das war genug. Es dauert nicht lange, um zu sagen, ob jemand eine männliche oder eine weibliche Stimme hat.“

Um den männlichen/weiblichen Scheck durchzuführen, behauptete B., dass im aktuellen Krieg “ich 20 Sekunden für jedes Ziel zu diesem Zeitpunkt investieren würde, und Dutzende von ihnen jeden Tag. Ich hatte keinen Mehrwert als Mensch, abgesehen davon, dass ich ein Gütesiegel sei. Es sparte viel Zeit. Wenn [der Agent] im automatisierten Mechanismus auftau und ich überprüfte, dass er ein Mann war, gäbe es die Erlaubnis, ihn zu bombardieren, vorbehaltlich einer Prüfung von Kollateralschäden.“

In der Praxis sagten Quellen, dass dies bedeutete, dass es für zivile Männer, die von Lavender irrtümlich markiert waren, keinen Überwachungsmechanismus vorhanden war, um den Fehler zu erkennen. Laut B. trat ein häufiger Fehler auf, “wenn das [Hamas]-Ziel seinem Sohn, seinem älteren Bruder oder nur einem zufälligen Mann [sein Telefon] gab. Diese Person wird in seinem Haus mit seiner Familie bombardiert. Das geschah oft. Dies waren die meisten Fehler, die von Lavender verursacht wurden“, sagte B.

STEP 2: LINKS TARGETS TO FAMILY HOMES

„Die meisten der Menschen, die du getötet hast, waren Frauen und Kinder“

Die nächste Stufe des Attentatsverfahrens der israelischen Armee besteht darin, herauszufinden, wo die Ziele, die Lavender generiert, angreifen soll.

In einer Erklärung an +972 und Local Call behauptete der IDF-Sprecher als Antwort auf diesen Artikel: „Die Hamas stellt ihre Aktivisten und militärischen Vermögenswerte in das Herz der Zivilbevölkerung, nutzt die Zivilbevölkerung systematisch als menschliche Schutzschilde und führt Kämpfe aus zivilen Strukturen durch, einschließlich sensibler Standorte wie Krankenhäuser, Moscheen und UN-Einrichtungen. Die IDF ist an völkerrechtlich gebunden und handelt, indem sie ihre Angriffe nur auf militärische Ziele und Militärs richtet.“

Die sechs Quellen, mit denen wir gesprochen haben, haben dies bis zu einem gewissen Grad wiederholt und gesagt, dass das umfangreiche Tunnelsystem der Hamas absichtlich unter Krankenhäusern und Schulen verläuft; dass Hamas-Aktivisten Krankenwagen einsetzen, um sich fortzufahren, und dass unzählige militärische Vermögenswerte in der Nähe von zivilen Gebäuden liegen. Die Quellen argumentierten, dass viele israelische Angriffe Zivilisten infolge dieser Taktik der Hamas töten – eine Charakterisierung, die Menschenrechtsgruppen vor der Verweigerung der Opfer entzieht.

Im Gegensatz zu den offiziellen Aussagen der israelischen Armee erklärten die Quellen jedoch, dass ein Hauptgrund für die beispiellose Zahl der Todesopfer durch Israels aktuelle Bombardierung die Tatsache ist, dass die Armee systematisch Ziele in ihren Privathäusern angegriffen hat, zusammen mit ihren Familien – zum Teil, weil es einfacher war, von einem nachrichtendienstlichen Standpunkt aus zu markieren, um Familienhäuser zu markieren.

Tatsächlich betonten mehrere Quellen, dass die Armee im Gegensatz zu zahlreichen Fällen von Hamas-Aktivisten, die militärische Aktivitäten aus zivilen Gebieten ausüben, im Falle systematischer Morde routinemäßig die aktive Wahl traf, mutmaßliche Militante bei zivilen Haushalten, von denen keine militärischen Aktivitäten stattfanden, routinemäßig die aktive Entscheidung getroffen hat, verdächtige Militante zu bombardieren, wenn in zivilen Haushalten, aus denen keine militärischen Aktivitäten stattfanden. Diese Wahl, sagten sie, sei ein Spiegelbild der Art und Weise, wie Israels Massenüberwachungssystem in Gaza entworfen wurde.

Die Quellen sagten +972 und Local Call, dass, da jeder in Gaza ein Privathaus hatte, mit dem sie verbunden werden könnten, die Überwachungssysteme der Armee leicht und automatisch mit Familienhäusern „verbunden“ könnten. Um den Moment zu identifizieren, in dem die Agenten ihre Häuser in Echtzeit betreten, wurden verschiedene zusätzliche automatische Software entwickelt. Diese Programme verfolgen Tausende von Personen gleichzeitig, identifizieren, wann sie zu Hause sind, und senden einen automatischen Alarm an den Zielbeamten, der dann das Haus wegen Bombenanschlägen markiert. Eine von mehreren dieser Tracking-Software, die hier zum ersten Mal enthüllt wurde, heißt „Where’s Daddy?“

“Sie setzen Hunderte [Ziele] in das System und warten Sie ab, um zu sehen, wen Sie töten können”, sagte eine Quelle mit Kenntnissen des Systems. „Es heißt breite Jagd: Sie kopieren Einfügen aus den Listen, die das Zielsystem produziert.“

Der Beweis für diese Politik geht auch aus den Daten hervor: Im ersten Monat des Krieges gehörten mehr als die Hälfte der Todesfälle von 6.120 Menschen 1.340 Familien, von denen viele vollständig ausgelöscht wurden, während sie sich in ihren Häusern befanden, so UN-Angaben. Der Anteil ganzer Familien, die im aktuellen Krieg in ihren Häusern bombardiert wurden, ist viel höher als bei der israelischen Operation in Gaza im Jahr 2014 (die zuvor Israels tödlichster Krieg gegen den Gazastreifen war), was die Bedeutung dieser Politik weiter nahelegt.

Eine andere Quelle sagte, dass jedes Mal, wenn das Tempo der Morde abnahm, mehr Ziele zu Systemen wie Where’s Daddy? hinzugefügt wurden, um Personen zu finden, die ihre Häuser betraten und daher bombardiert werden konnten. Er sagte, dass die Entscheidung, wen zu setzen, in die Tracking-Systeme gestellt werden soll, von relativ niedrigen Offizieren in der Militärhierarchie getroffen werden könnte.

“Eines Tages, ganz aus eigenem Antrieb, habe ich dem [Tracking]-System etwa 1.200 neue Ziele hinzugefügt, weil die Anzahl der Angriffe [wir führten] zurückgenommen haben”, sagte die Quelle. „Das machte für mich Sinn. Im Nachhinein scheint es eine ernsthafte Entscheidung zu sein, die ich getroffen habe. Und solche Entscheidungen wurden nicht auf hohem Niveau getroffen.“

Die Quellen sagten, dass in den ersten zwei Wochen des Krieges „mehrere tausend“ Ziele ursprünglich in die Lokalisierung von Programmen wie Where’s Daddy? eingedrungen seien. Dazu gehörten alle Mitglieder der Elite-Spezialeinheiten der Hamas, die Nukhba, alle Anti-Panzer-Aktivisten der Hamas, und alle, die am 7. Oktober nach Israel eingereist sind. Doch schon so lange wurde die Kill-Liste drastisch erweitert.

„Am Ende waren es alle [von Lavender markiert]”, erklärte eine Quelle. „Zehntausende. Dies geschah einige Wochen später, als die [israelischen] Brigaden in Gaza eindrangen und es bereits weniger unbeteiligte Menschen [d.h. Zivilisten] in den nördlichen Gebieten gab.“ Nach Angaben dieser Quelle waren sogar einige Minderjährige von Lavender als Ziele für Bombenangriffe gekennzeichnet. „Normalerweise sind die Aktivisten über 17 Jahre alt, aber das war keine Bedingung.“

Lavendel und Systeme wie Where’s Daddy? wurden so mit tödlichem Effekt kombiniert und töteten ganze Familien, sagten Quellen. Durch das Hinzufügen eines Namens aus den Lavender-ergenerierten Listen zum Where’s Daddy? Hometracking-System, erklärte A., würde die markierte Person unter fortlaufende Überwachung gestellt und könnten angegriffen werden, sobald sie einen Fuß in ihr Haus setzten und das Haus auf allen im Inneren einstürzen.

“Nehmen wir sagen, Sie berechnen, dass es eine Hamas [operative] plus 10 [Zivilisten im Haus] gibt”, sagte A. „Normalerweise werden diese 10 Frauen und Kinder sein. So absurd, dass es sich herausstellt, dass die meisten Menschen, die Sie getötet haben, Frauen und Kinder waren.“

SCHRITT 3: CHOOSING

“Wir haben die Anschläge normalerweise mit „dummen Bomben“ durchgeführt.

Sobald Lavender ein Ziel für ein Attentat markiert hat, haben Armeeangehörige überprüft, dass sie männlich sind, und die Tracking-Software hat das Ziel in ihrem Haus gefunden, die nächste Stufe ist die Auswahl der Munition, mit der sie bombardieren können.

Im Dezember 2023 berichtete CNN, dass nach Schätzungen des US-Geheimdienstes etwa 45 Prozent der von der israelischen Luftwaffe in Gaza eingesetzten Munition „dumst“ Bomben waren, die bekannter dafür bekannter sind, mehr Kollateralschäden zu verursachen als Lenkbomben. Als Reaktion auf den CNN-Bericht sagte ein in dem Artikel zitierter Armeesprecher: „Als ein Militär, das dem Völkerrecht und einem moralischen Verhaltenskodex verpflichtet ist, widmen wir enorme Ressourcen, um den Schäden für die Zivilbevölkerung zu minimieren, die die Hamas in die Rolle menschlicher Schutzschilde gezwungen hat. Unser Krieg ist gegen die Hamas, nicht gegen das Volk von Gaza.“

Drei Geheimdienstquellen sagten jedoch +972 und Local Call, dass von Lavender markierte Junior-Aktivisten nur mit dummen Bomben ermordet wurden, um teurere Waffen zu retten. Die Implikation, erklärte eine Quelle, war, dass die Armee kein Junior-Ziel treffen würde, wenn sie in einem Hochhaus lebten, weil die Armee keine genauere und teurere “Bodenbombe” (mit begrenztem Nebeneffekt) ausgeben wollte, um ihn zu töten. Aber wenn ein Junior-Ziel in einem Gebäude mit nur wenigen Stockwerken lebte, war die Armee berechtigt, ihn und alle im Gebäude mit einer dummen Bombe zu töten.

„So war es bei allen Junior-Zielen“, sagte C., der im aktuellen Krieg verschiedene automatisierte Programme einsetzte. „Die einzige Frage war, ob man das Gebäude in Bezug auf Kollateralschäden angreifen kann? Denn wir haben die Angriffe in der Regel mit dummen Bomben durchgeführt, und das bedeutete, das ganze Haus buchstäblich auf seinen Bewohnern zu zerstören. Aber auch wenn ein Angriff abgewendet wird, ist es Ihnen egal – Sie gehen sofort zum nächsten Ziel über. Wegen des Systems enden die Ziele nie. Sie haben weitere 36.000 warten.

SCHRITT 4: AUTHORIZING CIVILIAN CASUALTIES

„Wir haben fast angegriffen, ohne Kollateralschäden zu berücksichtigen“

Eine Quelle sagte, dass bei Angriffen auf junge Aktivisten, einschließlich derer, die von KI-Systemen wie Lavendern gekennzeichnet sind, die Anzahl der Zivilisten, die sie neben jedem Ziel töten durften, in den ersten Wochen des Krieges mit bis zu 20 behoben wurde. Eine andere Quelle behauptete, dass die feste Zahl bis zu 15 war. Diese „Kollateralschäden“, wie das Militär sie nennt, wurden im Großen und Ganzen auf alle mutmaßlichen Junior-Militanten angewendet, sagten die Quellen, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter, und ohne spezifische Fall-zu-Fall-Prüfung, um den militärischen Vorteil abzuwägen, sie gegen den erwarteten Schaden für Zivilisten zu ermorden.

Laut A., der im aktuellen Krieg Offizier in einem Zieleinsatzraum war, hat die Völkerrechtsabteilung der Armee noch nie eine solche „einfachen Zustimmung“ für einen so hohen Kollateralschaden gegeben. “Es ist nicht nur so, dass man jede Person töten kann, die ein Hamas-Soldat ist, was eindeutig erlaubt und in Bezug auf das Völkerrecht legitim ist”, sagte A. „Aber sie sagen dir direkt: „Du darfst sie zusammen mit vielen Zivilisten töten.“

„Jeder Mensch, der in den letzten ein oder zwei Jahren eine Hamas-Uniform trug, konnte mit 20 [Zivilen getötet] als Kollateralschäden bombardiert werden, auch ohne besondere Genehmigung”, fuhr A. fort. „In der Praxis gab es das Verhältnismäßigkeitsprinzip nicht.“

Laut A. war dies die meiste Zeit der Politik, der er diente. Erst später senkte das Militär den Kollateralschaden. „Bei dieser Berechnung könnten es auch 20 Kinder für einen Junior-Agenten sein … So war es in der Vergangenheit wirklich nicht so“, erklärte A.. Auf die Frage nach den Sicherheitsgründen hinter dieser Politik antwortete A: „Lethalität“.

Der vorbestimmte und feste Kollateralschadens Grad trug dazu bei, die Massenerstellung von Zielen mit der Lavender-Maschine zu beschleunigen, sagten Quellen, weil es Zeit sparte. B. behauptete, dass die Anzahl der Zivilisten, die sie in der ersten Woche des Krieges töten durften, laut mutmaßlichen Junior-Militanten, die von KI markiert waren, fünfzehn war, aber dass diese Zahl im Laufe der Zeit “auf und ab” ging.

„Zuerst haben wir fast angegriffen, ohne Kollateralschäden in Betracht zu ziehen“, sagte B. über die erste Woche nach dem 7. Oktober. “In der Praxis hat man die Leute [in jedem Haus, das bombardiert wird] nicht wirklich mitgezählt, weil man nicht wirklich sagen konnte, ob sie zu Hause sind oder nicht. Nach einer Woche begannen die Beschränkungen für Kollateralschäden. Die Zahl sank [von 15] auf fünf, was es uns wirklich schwer machte, anzugreifen, denn wenn die ganze Familie zu Hause war, konnten wir sie nicht bombardieren. Dann hoben sie die Zahl wieder an.

“Wir wussten, dass wir über 100 Zivilisten töten würden”

Quellen sagten +972 und Local Call, dass die israelische Armee jetzt, teilweise aufgrund des amerikanischen Drucks, keine mehr massengenden Junior-Menschenziele für Bomben in zivilen Häusern ist. Die Tatsache, dass die meisten Häuser im Gazastreifen bereits zerstört oder beschädigt wurden und fast die gesamte Bevölkerung vertrieben wurde, beeinträchtigte auch die Fähigkeit der Armee, sich auf Geheimdienstdatenbanken und automatisierte Hauslokalisierungsprogramme zu verlassen.

  1. behauptete, dass die massive Bombardierung junger Militanter nur in der ersten oder zweiten Woche des Krieges stattfand und dann hauptsächlich gestoppt wurde, um keine Bomben zu verschwenden. „Es gibt eine Munitionswirtschaft“, sagte E. “Sie hatten immer Angst, dass es [einen Krieg] in der nördlichen Arena [mit der Hisbollah im Libanon] geben würde. Sie greifen diese Art von [Junior]-Menschen überhaupt nicht mehr an.“

Die Luftangriffe gegen hochrangige Hamas-Kommandeure dauern jedoch noch an, und Quellen sagten, dass das Militär für diese Angriffe die Tötung von „Hunderten“ von Zivilisten pro Ziel genehmigt – eine offizielle Politik, für die es keinen historischen Präzedenzfall in Israel oder sogar bei den jüngsten US-Militäroperationen gibt.

„Bei der Bombardierung des Kommandeurs des Shuja’iya-Bataillons wussten wir, dass wir über 100 Zivilisten töten würden“, erinnerte sich B. an einen Dez. 2 Bombenanschläge, von denen der IDF-Sprecher sagte, dass sie darauf abzielten, Wisam Farhat zu ermorden. „Für mich war es psychologisch ungewöhnlich. Über 100 Zivilisten – es überschreitet eine rote Linie.“

Amjad Al-Sheikh, ein junger Palästinenser aus Gaza, sagte, dass viele seiner Familienmitglieder bei diesem Bombenanschlag getötet wurden. Als Bewohner von Shuja’iya, östlich von Gaza-Stadt, war er an diesem Tag in einem örtlichen Supermarkt, als er fünf Explosionen hörte, die die Glasfenster zerschmetterten.

“Ich rannte zum Haus meiner Familie, aber es gab keine Gebäude mehr”, sagte Al-Sheikh +972 und Local Call. „Die Straße war voller Schreie und Rauch. Ganze Wohnblöcke verwandelten sich in Schutt- und Tiefbaugruben. Die Leute begannen, im Zement zu suchen, mit ihren Händen, und ich suchte nach Anzeichen des Hauses meiner Familie.“

Al-Sheikhs Frau und ihre kleine Tochter überlebten – geschützt vor den Trümmern durch einen Schrank, der auf sie fiel – aber er fand 11 andere Mitglieder seiner Familie, darunter seine Schwestern, Brüder und ihre kleinen Kinder, tot unter den Trümmern. Nach Angaben der Menschenrechtsgruppe B’Tselem zerstörte der Bombenanschlag an diesem Tag Dutzende von Gebäuden, tötete Dutzende von Menschen und begrub Hunderte unter den Ruinen ihrer Häuser.

„Alle Familien wurden getötet“

Geheimdienstquellen sagten +972 und Local Call, dass sie an noch tödlicheren Streiks teilgenommen hätten. Um Ayman Nofal, den Kommandeur der Zentral-Gaza-Brigade der Hamas, zu ermorden, sagte eine Quelle, dass die Armee die Tötung von etwa 300 Zivilisten genehmigte und mehrere Gebäude bei Luftangriffen auf das Flüchtlingslager Al-Bureij im Oktober zerstörte. 17, basierend auf einer ungenauen Punktierung von Nofal. Satellitenaufnahmen und Videos von der Szene zeigen die Zerstörung mehrerer großer mehrstöckiger Wohnhäuser.

„Zwischen 16 bis 18 Häuser wurden bei dem Angriff ausgelöscht“, sagte Amro Al-Khatib, ein Bewohner des Lagers, +972 und Local Call. “Wir konnten nicht eine Wohnung von der anderen unterscheiden – sie wurden alle in den Trümmern verwechselt, und wir fanden überall menschliche Körperteile.”

In der Nacherfahrt erinnerte Al-Khatib an etwa 50 Leichen, die aus den Trümmern gezogen und etwa 200 Menschen verletzt wurden, viele von ihnen schwer. Aber das war erst der erste Tag. Die Bewohner des Lagers verbrachten fünf Tage damit, die Toten und Verletzten herauszuziehen, sagte er.

 

Nael Al-Bahisi, ein Sanitäter, war einer der ersten am Tatort. Er zählte an diesem ersten Tag zwischen 50 und 70 Opfern. „Zu einem bestimmten Zeitpunkt haben wir verstanden, dass das Ziel des Angriffs der Hamas-Kommandeur Ayman Nofal war”, sagte er +972 und Local Call. „Sie töteten ihn, und auch viele Leute, die nicht wussten, dass er dort war. Ganze Familien mit Kindern wurden getötet.“

Eine andere Geheimdienstquelle sagte +972 und Local Call, dass die Armee Mitte Dezember ein Hochhaus in Rafah zerstört habe und „Dutzende Zivilisten“ getötet habe, um Mohammed Shabaneh, den Kommandeur der Rafah-Brigade der Hamas, zu töten (es ist nicht klar, ob er bei dem Angriff getötet wurde oder nicht). Oft, sagte die Quelle, verstecken sich die hochrangigen Kommandeure in Tunneln, die unter zivilen Gebäuden passieren, und daher die Wahl, sie mit einem Luftangriff zu ermorden, tötet notwendigerweise Zivilisten.

“Die meisten Verletzten waren Kinder”, sagte Wael Al-Sir, 55, der Zeuge des großangelegten Streiks war, von dem einige Bewohner des Gazastreifens glaubten, dass er das Attentat war. Er sagte +972 und Local Call, dass der Bombenanschlag auf Dezember. 20 zerstörte einen „gesamten Wohnblock“ und tötete mindestens 10 Kinder.

“Es gab eine völlig freizügige Politik in Bezug auf die Opfer von [Bombardement-]Operationen – so freizügig, dass sie meiner Meinung nach ein Element der Rache hatte”, behauptete D., eine Geheimdienstquelle. „Der Kern davon waren die Morde an hochrangigen [Hamas- und PIJ-Kommandeure), für die sie bereit waren, Hunderte von Zivilisten zu töten. Wir hatten ein Kalkül: wie viele für einen Brigadekommandanten, wie viele für einen Bataillonskommandeur und so weiter.“

“Es gab Vorschriften, aber sie waren einfach sehr nachsichtig”, sagte E., eine andere Geheimdienstquelle. „Wir haben Menschen mit Kollateralschäden im hohen zweistelligen, wenn auch nicht niedrigen dreistelligen Bereich getötet. Das sind Dinge, die noch nicht passiert sind.“

Eine derart hohe „Kollateralschäden“ ist nicht nur außergewöhnlich im Vergleich zu dem, was die israelische Armee zuvor für akzeptabel hielt, sondern auch im Vergleich zu den Kriegen, die von den Vereinigten Staaten im Irak, Syrien und Afghanistan geführt wurden.

General Peter Gersten, stellvertretender Kommandeur für Operationen und Geheimdienste bei der Operation im Kampf gegen ISIS im Irak und in Syrien, sagte 2021 vor einem US-Verteidigungsmagazin, dass ein Angriff mit Kollateralschäden von 15 Zivilisten vom Verfahren abgewichen sei; um es auszuführen, müsse er eine Sondergenehmigung vom Chef der USA einbehalten. Zentrale, General Lloyd Austin, der jetzt Verteidigungsminister ist.

„Mit Osama Bin Laden hätte man einen NCV [Non-Combatant Casualty Value] von 30, aber wenn man einen niedrigen Kommandanten hätte, war sein NCV normalerweise null”, sagte Gersten. „Wir liefen am längsten Nullen.“

„Uns wurde gesagt: „Was immer du kannst, bombardiert“

Alle für diese Untersuchung befragten Quellen sagten, dass die Massaker der Hamas am 7. Oktober und die Entführung von Geiseln die Brandpolitik und die Kollateralschäden der Armee stark beeinflussten. „Zuerst war die Atmosphäre schmerzhaft und rachsüchtig“, sagte B., der unmittelbar nach dem 7. Oktober in die Armee eingezogen wurde und in einem Zieleinsatzraum diente. „Die Regeln waren sehr nachsichtig. Sie nahmen vier Gebäude ab, als sie wussten, dass das Ziel in einem von ihnen war. Es war verrückt.

„Es gab eine Dissonance: Auf der einen Seite waren die Leute hier frustriert, dass wir nicht genug angriffen“, fuhr B. fort. „Andererseits sieht man am Ende des Tages, dass weitere tausend Bewohner des Gazastreifens gestorben sind, die meisten von ihnen Zivilisten.“

„Es gab Hysterie in den Profi-Rängen“, sagte D., der auch unmittelbar nach dem 7. Oktober eingezogen wurde. „Sie hatten überhaupt keine Ahnung, wie sie reagieren würden. Das einzige, was sie wussten, war, einfach wie Verrückte zu bombardieren, um zu versuchen, die Fähigkeiten der Hamas zu demontieren.“

D betonte, dass ihnen nicht ausdrücklich gesagt wurde, dass das Ziel der Armee „Anwiefahrer“ sei, sagte aber, dass „sobald jedes Ziel, das mit der Hamas verbunden ist, legitim wird und fast jeder Kollateralschaden genehmigt wird, ist Ihnen klar, dass Tausende von Menschen getötet werden. Selbst wenn offiziell jedes Ziel mit der Hamas verbunden ist, wenn die Politik so freizügig ist, verliert sie jede Bedeutung.“

  1. benutzte auch das Wort “revenge”, um die Atmosphäre in der Armee nach dem 7. Oktober zu beschreiben. “Niemand hat darüber nachgedacht, was danach zu tun ist, wenn der Krieg vorbei ist, oder wie es möglich sein wird, in Gaza zu leben und was er damit machen wird”, sagte A. „Uns wurde gesagt: Jetzt müssen wir die Hamas ficken, egal was die Kosten sind. Was immer du kannst, du bombardiert.“

B., die hochrangige Geheimdienstquelle, sagte, dass er im Nachhinein glaubt, dass diese „unverhältnismäßige“ Politik der Tötung von Palästinensern in Gaza auch Israelis gefährdet, und dass dies einer der Gründe war, warum er sich entschieden habe, interviewt zu werden.

„Kurzfristig sind wir sicherer, weil wir der Hamas geschadet haben. Aber ich denke, dass wir auf lange Sicht weniger sicher sind. Ich sehe, wie alle Hinterbliebenen in Gaza, die fast alle sind, die Motivation für [die Menschen, sich der Hamas anzuschließen] 10 Jahre später auf der ganzen Linie zu sein. Und es wird viel einfacher für [Hamas] sein, sie zu rekrutieren.“

In einer Erklärung zu +972 und Local Call bestritt die israelische Armee vieles von dem, was uns die Quellen sagten, und behauptete, dass “jetzt jedes Ziel einzeln untersucht wird, während eine individuelle Bewertung des militärischen Vorteils und der Kollateralschäden gemacht wird, die durch den Angriff erwartet werden … Die IDF führt keine Angriffe durch, wenn der Kollateralschaden, der durch den Angriff erwartet wird, übermäßiger Nutzen hat.”

SCHRITT 5: CALCULATING COLLATERAL DAMAGE

“Das Modell war nicht mit der Realität verbunden”

Den Geheimdienstquellen zufolge wurde die Berechnung der Anzahl der Zivilisten, die in jedem Haus getötet werden sollen, zusammen mit einem Ziel, ein Verfahren, das in einer früheren Untersuchung von +972 und Local Call untersucht wurde, mit Hilfe automatischer und ungenauer Werkzeuge durchgeführt. In früheren Kriegen verbrachte das Geheimdienstpersonal viel Zeit damit, zu überprüfen, wie viele Menschen sich in einem Haus befanden, das bombardiert werden sollte, wobei die Anzahl der Zivilisten, die als Teil einer „Zieldatei“ getötet werden könnten, aufgeführt werden sollte. Nach dem 7. Oktober wurde diese gründliche Verifizierung jedoch weitgehend zugunsten der Automatisierung aufgegeben.

Im Oktober berichtete die New York Times über ein System, das von einer speziellen Basis im Süden Israels aus betrieben wird, die Informationen von Mobiltelefonen im Gazastreifen sammelt und dem Militär eine Live-Schätzung der Anzahl der Palästinenser lieferte, die aus dem nördlichen Gazastreifen nach Süden flohen. Brig. General Udi Ben Muha sagte der Times, dass “es kein 100-prozentiges perfektes System ist – aber es gibt Ihnen die Informationen, die Sie benötigen, um eine Entscheidung zu treffen.” Das System funktioniert nach Farben: rote Markierungen Bereiche, in denen es viele Menschen gibt, und Grün- und Gelbzeichen, die relativ von den Bewohnern befreit wurden.  

Die Quellen, die mit +972 und Local Call sprachen, beschrieben ein ähnliches System zur Berechnung von Kollateralschäden, mit dem entschieden wurde, ob ein Gebäude in Gaza bombardiert werden sollte. Sie sagten, dass die Software die Anzahl der Zivilisten berechnete, die vor dem Krieg in jedem Haus wohnten – indem sie die Größe des Gebäudes bewertete und seine Liste der Bewohner überprüfte – und diese Zahlen dann um den Anteil der Bewohner reduzierte, die angeblich die Nachbarschaft evakuierten.

Um zu veranschaulichen, dass, wenn die Armee schätzte, dass die Hälfte der Bewohner eines Viertels gegangen war, würde das Programm ein Haus zählen, das normalerweise 10 Bewohner als ein Haus mit fünf Personen hatte. Um Zeit zu sparen, sagten die Quellen, habe die Armee die Häuser nicht überprüft, um zu überprüfen, wie viele Menschen tatsächlich dort lebten, wie es bei früheren Operationen der Fall war, um herauszufinden, ob die Schätzung des Programms tatsächlich korrekt war.

„Dieses Modell war nicht mit der Realität verbunden“, behauptete eine Quelle. “Es gab keine Verbindung zwischen denen, die jetzt, während des Krieges, im Haus waren, und denen, die dort vor dem Krieg als dort lebend aufgeführt wurden. [Einmal] bombardierten wir ein Haus, ohne zu wissen, dass sich mehrere Familien darin befanden und sich zusammen versteckten.“  

Die Quelle sagte, dass, obwohl die Armee wusste, dass solche Fehler auftreten könnten, dieses ungenaue Modell dennoch übernommen wurde, weil es schneller war. Als solche, so die Quelle, “war die Kollateralschadenberechnung vollständig automatisch und statistisch” – sogar Zahlen, die nicht ganze Zahlen waren.

SCHRITT 6: BUCHUNG HAUS

“Du hast eine Familie ohne Grund getötet”

Die Quellen, die mit +972 und Local Call sprachen, erklärten, dass es manchmal eine erhebliche Lücke zwischen dem Moment gab, in dem Tracking-Systeme wie Where’s Daddy? einen Offizier alarmierten, dass ein Ziel in ihr Haus eingedrungen war, und der Bombardierung selbst – was zur Tötung ganzer Familien führte, auch ohne das Ziel der Armee zu treffen. “Es ist mir oft passiert, dass wir ein Haus angegriffen haben, aber die Person war nicht einmal zu Hause”, sagte eine Quelle. „Das Ergebnis ist, dass man eine Familie ohne Grund getötet hat.“

Drei Geheimdienstquellen teilten +972 und Local Call mit, dass sie einen Vorfall erlebt hätten, bei dem die israelische Armee das Privathaus einer Familie bombardierte, und es stellte sich später heraus, dass das beabsichtigte Ziel des Attentats nicht einmal im Haus war, da keine weitere Überprüfung in Echtzeit durchgeführt wurde.

“Manchmal war [das Ziel] früher zu Hause, und dann nachts ging er woanders schlafen, sagen wir im Untergrund, und man wusste nichts davon”, sagte eine der Quellen. “Es gibt Zeiten, in denen man die Lage doppelt überprüft, und es gibt Zeiten, in denen man nur sagt: “Okay, er war in den letzten Stunden im Haus, also kann man einfach bombardieren.”  

Eine andere Quelle beschrieb einen ähnlichen Vorfall, der ihn betraf und ihn dazu brachte, für diese Untersuchung interviewt zu werden. „Wir haben verstanden, dass das Ziel um 20 Uhr zu Hause war. Am Ende bombardierte die Luftwaffe das Haus um 3 Uhr morgens. Dann fanden wir heraus, dass er es geschafft hatte, mit seiner Familie in ein anderes Haus zu ziehen. Es waren zwei weitere Familien mit Kindern in dem Gebäude, das wir bombardierten.“

In früheren Kriegen in Gaza, nach der Ermordung menschlicher Ziele, würde der israelische Geheimdienst Bombenschadensbewertungsverfahren (BDA) durchführen – eine routinemäßige Überprüfung nach dem Schlag, um zu sehen, ob der Oberbefehlshaber getötet wurde und wie viele Zivilisten zusammen mit ihm getötet wurden. Wie in einer früheren +972- und Local-Call-Untersuchung aufgedeckt, ging es darum, Telefonanrufe von Verwandten zuzuhören, die ihre Angehörigen verloren haben. Im aktuellen Krieg jedoch, zumindest in Bezug auf KI markierte Junior-Militante, sagen Quellen, dass dieses Verfahren abgeschafft wurde, um Zeit zu sparen. Die Quellen sagten, sie wüssten nicht, wie viele Zivilisten tatsächlich bei jedem Angriff getötet wurden, und für die niedrigrangigen mutmaßlichen Hamas- und PIJ-Aktivisten, die von KI gekennzeichnet waren, wussten sie nicht einmal, ob das Ziel selbst getötet wurde.

 

“Eine Massenmordfabrik”: Innerhalb Israels kalkulierte Bombardierung von Gaza

Auch ohne UN- Veto bleibt Gaza Geisel der amerikanischen Macht

“Sie wissen nicht genau, wie viele Sie getötet haben und wen Sie getötet haben”, sagte eine Geheimdienstquelle gegenüber Local Call für eine frühere Untersuchung, die im Januar veröffentlicht wurde. „Nur wenn es hochrangige Hamas-Aktivisten sind, befolgt man das BDA-Verfahren. Im Rest der Fälle ist es Ihnen egal. Sie erhalten einen Bericht von der Luftwaffe darüber, ob das Gebäude gesprengt wurde, und das war’s. Sie haben keine Ahnung, wie viel Kollateralschaden es gab; Sie gehen sofort zum nächsten Ziel über. Der Schwerpunkt lag darauf, so viele Ziele wie möglich zu schaffen, so schnell wie möglich.“

Aber während das israelische Militär von jedem Streik fortbewegen kann, ohne sich auf die Zahl der Opfer zu konzentrieren, Amjad Al-Sheikh, der Bewohner von Shuja’iya, der 11 seiner Familienmitglieder im Dezember verlor. 2 Bombardierung, sagte, dass er und seine Nachbarn immer noch nach Leichen suchen.

„Bis jetzt gibt es Leichen unter den Trümmern“, sagte er. „Vierzehn Wohngebäude wurden mit ihren Bewohnern bombardiert. Einige meiner Verwandten und Nachbarn sind immer noch begraben.“

 

Yuval Abraham ist Journalist und Filmemacher in Jerusalem.