Analysen

04.04.2024: KI-gesteuerte "industrialisierte Ausrottung" ++ Die israelische Armee hat Zehntausende von Bewohnern des Gazastreifens als Verdächtige für die Ermordung markiert, wobei sie ein KI-Zielsystem mit wenig menschlicher Aufsicht einsetzt und viele zivile Opfer in Kauf nimmt, wie +972 und Local Call enthüllen (link zur deutschen Übersetzung bei den Fußnoten)

 

"Die IDF haben sie ohne zu zögern in ihren Häusern bombardiert, als erste Option", sagte ein israelischer Geheimdienstoffizier. "Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist so gebaut, dass es in solchen Situationen nach ihnen sucht."

Während die US-Regierung und die deutsche Regierung immer wieder versichern. dass sie Israel dazu drängen, bei der Auswahl seiner Ziele im Gazastreifen "präzise" zu sein und zivile Opfer zu vermeiden - offensichtlich ohne Erfolg -, ergab eine Untersuchung des Einsatzes eines bisher geheim gehaltenen Systems der künstlichen Intelligenz durch das israelische Militär (IDF), dass der Mechanismus "menschliches Handeln und Präzision" durch die "Schaffung von Massenzielen und Tödlichkeit" ersetzt hat.

Vier Monate nachdem das Magazin +972 und Local Call den Einsatz eines KI-Systems namens Gospel durch die IDF beschrieben hatten[1], das an einem einzigen Tag Dutzende von Gebäuden und Strukturen als Ziel für das Militär generiert, enthüllten die beiden israelischen Medien, dass eine andere KI-Maschine namens Lavender[2] ebenfalls eine Rolle im israelischen Vernichtungskrieg gegen die Palästinenser:innen spielt, bei dem seit dem 7. Oktober mindestens 32.975 Palästinenser:innen, davon 70 Prozent Kinder und Frauen, getötet wurden.

Gazakrieg AlShifa 2024 04 01 3  

 

Trümmer und Leichen. Die Überreste des Al Shifa Krankenhauses nach dem israelischen Angriff   

Gazakrieg Gaza zerstoert Selfie IDF  

 

UN-Bericht: Anatomie eines Völkermordes

Gazakrieg 2023 10 22 Mutter Kind  

 

Wieder eine Nakba? Durchgesickerte Dokumente bestätigen israelischen Plan, Palästinenser:innen nach Ägypten zu vertreiben

 

"Ein grundlegender Unterschied zwischen den beiden Systemen besteht in der Definition des Ziels", so Yuval Abraham von +972: "Während The Gospel Gebäude und Strukturen markiert, von denen aus die Armee behauptet, dass Militante dort operieren, markiert Lavender Menschen - und setzt sie auf eine Tötungsliste."

Das System wurde entwickelt, um mutmaßliche Militärangehörige der Hamas und des Palästinensischen Islamischen Dschihad (PIJ) als potenzielle Bombenziele zu markieren.

Abraham sprach mit sechs israelischen Geheimdienstoffizieren, die während Israels aktuellem Angriff auf Gaza in der IDF dienten und "aus erster Hand mit dem Einsatz von KI zur Generierung von Tötungszielen zu tun hatten."

"Lavender hat eine zentrale Rolle bei der beispiellosen Bombardierung von Palästinensern gespielt, insbesondere in der Anfangsphase des Krieges", schreibt Abraham. "Den Quellen zufolge war sein Einfluss auf die Operationen des Militärs sogar so groß, dass sie die Ergebnisse der KI-Maschine im Wesentlichen so behandelten, 'als ob es eine menschliche Entscheidung wäre'."

Eine als B. genannte Quelle und andere Quellen räumen gegenüber +972 ein, dass das System anfällig für Fehler ist. "Es war im Voraus bekannt, dass 10% der menschlichen Ziele, die zur Ermordung vorgesehen waren, gar keine Mitglieder des militärischen Flügels der Hamas waren."

Doch die IDF erteilte in den ersten Tagen der israelischen Bombardierungskampagne den Offizieren die pauschale Erlaubnis, Lavenders Tötungslisten zu übernehmen, ohne zu überprüfen, warum die Maschine diese Auswahl traf oder die geheimdienstlichen Rohdaten zu untersuchen, auf denen sie basierten.

Vor der Bombardierung von Häusern mutmaßlicher Mitglieder bewaffneter Gruppen nahmen die Geheimdienstler eine kurze Bewertung der Daten vor, um festzustellen, dass das von der KI ausgewählte Ziel männlich war.

"Ein Mensch musste [die Zielperson] nur ein paar Sekunden lang überprüfen", so eine als B. genannte Quelle gegenüber +972. "Zuerst haben wir überprüft, ob die Maschine nicht irregeführt wurde. Aber irgendwann haben wir uns auf das automatische System verlassen und nur noch überprüft, ob es sich um einen Mann handelt - das hat gereicht. Es dauert nicht lange, um festzustellen, ob jemand eine männliche oder eine weibliche Stimme hat."

"In dieser Phase investierte ich 20 Sekunden für jede Zielperson und machte jeden Tag Dutzende von ihnen", fügt B. hinzu. "Ich hatte keinerlei zusätzlichen Wert als Mensch, abgesehen davon, dass ich ein Zustimmungsstempel war. Das sparte eine Menge Zeit. Wenn [der Agent] im automatischen Mechanismus auftauchte und ich überprüfte, dass er ein Mann war, gab es die Erlaubnis, ihn zu bombardieren, vorbehaltlich einer Prüfung der Kollateralschäden."

Wenn die Zielperson ihr Telefon, das Lavender zur Identifizierung von Hamas- und PIJ-Verdächtigen nutzte, "seinem Sohn, seinem älteren Bruder oder einfach einem beliebigen Mann" gegeben hatte, so B., "wird diese Person in ihrem Haus mit ihrer Familie bombardiert. Das ist oft passiert. Das waren die meisten Fehler, die durch Lavender verursacht wurden."

Das System markierte 37.000 Palästinenser - und ihre Häuser, in denen sich möglicherweise Familienmitglieder befanden - als Ziele in den ersten Wochen des Krieges, als sich die IDF "fast vollständig auf Lavender verließ".

Die Geheimdienstoffiziere erklärten Abraham, dass die IDF "nicht daran interessiert sind, [Hamas]-Aktivisten nur dann zu töten, wenn sie sich in einem militärischen Gebäude befinden oder einer militärischen Aktivität nachgehen", obwohl Israel immer wieder behauptet, dass sie nur militärische Außenposten und andere nicht-zivile Infrastrukturen ins Visier nehmen.

"Im Gegenteil, die IDF haben sie ohne zu zögern in Häusern bombardiert, als erste Option", sagte ein als A. bezeichneter Offizier gegenüber +972 und Local Call. "Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Situationen nach ihnen zu suchen".

Yuval Abraham schreibt: "Die israelische Armee griff die Zielpersonen systematisch an, wenn sie sich in ihren Häusern aufhielten - in der Regel nachts, wenn ihre ganze Familie anwesend war - und nicht während einer militärischen Aktion. Den Quellen zufolge lag dies daran, dass es aus nachrichtendienstlicher Sicht einfacher war, die Personen in ihren Privathäusern aufzuspüren. Zusätzliche automatisierte Systeme, darunter ein System mit dem Namen 'Where's Daddy?', das hier zum ersten Mal enthüllt wird, wurden gezielt eingesetzt, um die Zielpersonen aufzuspüren und Bombenangriffe zu verüben, wenn sie die Wohnungen ihrer Familien betreten hatten."

Infolge der Abhängigkeit des Militärs von Lavender, schreibt Abraham, "wurden Tausende von Palästinensern - die meisten von ihnen Frauen und Kinder oder Menschen, die nicht in die Kämpfe verwickelt waren - durch israelische Luftangriffe ausgelöscht, besonders in den ersten Wochen des Krieges."

Die Untersuchung ergab auch, dass die IDF laut zwei der Quellen in den ersten Wochen des Krieges beschlossen, dass "für jeden von Lavender markierten einfachen Hamaskämpfer bis zu 15 oder 20 Zivilisten getötet werden dürfen" - ein noch nie dagewesener Ansatz Israels für so genannte "Kollateralschäden".

Wenn für einen Hamaskämpfer 20 getötete Zivilist:innen in Kauf genommen werden, dann entspricht das etwas mehr als 95% zivile Todesopfer.

Für hochrangige Hamas-Funktionäre, die ins Visier genommen wurden, genehmigt die Armee sogar die Tötung von mehr als 100 Zivilist:innen.

IDF-Offiziere, einschließlich der Quellen, akzeptierten, dass Lavenders Berechnungen über die Ziele nur in 90% der Fälle korrekt waren, berichten +972 und Local Call.

Mit diesen Enthüllungen wird auch die israelische Behauptung als Lüge überführt, dass so viele Zivilist:innen sterben, weil die Hamas sie als Schutzschild missbraucht.

 

»Die Quellen sagten, dass die Genehmigung zur automatischen Übernahme der Tötungslisten von Lavender, die zuvor nur als Hilfsmittel eingesetzt worden waren, etwa zwei Wochen nach Kriegsbeginn erteilt wurde, nachdem Geheimdienstmitarbeiter die Genauigkeit einer Stichprobe von mehreren hundert vom KI-System ausgewählten Zielen "manuell" überprüft hatten. Als diese Stichprobe ergab, dass die Ergebnisse von Lavender eine Genauigkeit von 90 Prozent bei der Identifizierung der Zugehörigkeit einer Person zur Hamas erreicht hatten, genehmigte die Armee den umfassenden Einsatz des Systems. Wenn Lavender eine Person als Hamas-Aktivist einstufte, wurde die Armee aufgefordert, dies als Befehl zu behandeln, ohne unabhängig zu prüfen, warum die Maschine diese Entscheidung traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie basiert.

"Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten", sagte B.. "Wir haben Tausende von Menschen ausgeschaltet. Wir sind sie nicht einzeln durchgegangen - wir haben alles in automatische Systeme eingegeben, und sobald eine [der markierten Personen] zu Hause war, wurde sie sofort zum Ziel. Wir haben ihn und sein Haus bombardiert."

"Es war für mich sehr überraschend, dass wir gebeten wurden, ein Haus zu bombardieren, um einen einfachen Soldaten zu töten, dessen Bedeutung in den Kämpfen so gering war", sagte eine Quelle über den Einsatz von künstlicher Intelligenz, um mutmaßliche niederrangige Kämpfer zu markieren. "Ich nannte diese Ziele 'Müllziele'. Dennoch fand ich sie ethischer als die Ziele, die wir nur zur 'Abschreckung' bombardierten - Hochhäuser, die evakuiert und umgestürzt werden, nur um Zerstörung zu verursachen." «
(‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza)

 

 

Eine Quelle verteidigte den Einsatz von Lavender durch das Militär und sagte, es lohne sich nicht, "Arbeitskräfte und Zeit" in die Analyse zu investieren, ob ein mutmaßlicher junger Kämpfer ein legitimes Ziel sei.

"Im Krieg hat man keine Zeit, jedes Ziel zu überprüfen", so der Geheimdienstoffizier. "Also ist man bereit, die Fehlertoleranz beim Einsatz künstlicher Intelligenz in Kauf zu nehmen, Kollateralschäden und den Tod von Zivilisten zu riskieren und damit zu leben, dass man aus Versehen angreift."

Zwar sind Kollateralschäden in gewaltsamen Konflikten seit langem eine Realität, doch sind die Parteien an das humanitäre Völkerrecht gebunden, wonach sie zwischen Zivilisten und Kombattanten unterscheiden müssen.

Alex Hanna, Forschungsdirektor des Distributed AI Research Institute, sagte, der Bericht zeige die mögliche "Zukunft der KI-Kriegsführung" für die USA und andere mächtige Länder. Die Auswertung dieser Erfahrungen dürfte auch einer der Gründe dafür sein, dass die US-Regierung trotz aller scheinheiligen Beteuerungen das Massaker in Gaza toleriert und dafür immer weiter Waffen liefert.

Der israelische Politologe Ori Goldberg schreibt: "Bitte nehmen Sie sich die Zeit, diese unglaubliche investigative Berichterstattung zu lesen. Ich denke, es ist die beste Demonstration der israelischen Denkweise, die ich je gesehen habe, und es sagt viel über die Notwendigkeit aus, die Definition von Völkermord zu überdenken."

Arnaud Bertrand meint, der "beunruhigende" Bericht erinnere an die methodischen Massaker der Nazis an der jüdischen Bevölkerung während des Holocausts.

"Es handelt sich um eine industrialisierte Ausrottung, wie wir sie nicht mehr gesehen haben seit... Sie wissen schon wann."
Arnaud Bertrand

 

Anmerkungen

[1] +972 Magazin, 30.11.2023: ‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza
Permissive airstrikes on non-military targets and the use of an artificial intelligence system have enabled the Israeli army to carry out its deadliest war on Gaza, a +972 and Local Call investigation reveals.
https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

[2] +972 Magazin, 03.04.2024: ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza
The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.
https://www.972mag.com/lavender-ai-israeli-army-gaza/

deutsche Übersetzung
"Lavender“: Die KI-Maschine, die Israels Bomben-Amoklauf auf Gaza steuert
https://occupiednews.com/lavender-ki-israels-bomben-amoklauf


mehr zum Thema

 

 

Internat Tag der Solidaritaet ++++++++++++++++++++++++++++++++

Farkha Festival Komitee ruft zu Spenden für die Solidaritätsarbeit in Gaza auf

CfD communist solidarity dt
zum Text hier
++++++++++++++++++++++++++++++++

Friedfertig statt kriegstüchtig – Strategien für eine Politik jenseits der KriegslogikLogo Friedensratschlag Kassel

Friedenspolitischer Ratschlag am 30. November und 1. Dezember 2024 in Kassel
Infos hier: https://friedensratschlag.de/


 

UNRWA Gazakrieg Essenausgabe

UNRWA Nothilfeaufruf für Gaza
Vereint in Menschlichkeit, vereint in Aktion

Mehr als 2 Millionen Menschen, darunter 1,7 Millionen Palästina-Flüchtlinge, zahlen den verheerenden Preis für die Eskalation im Gazastreifen.
Zivilisten sterben, während die Welt zusieht. Die Luftangriffe gehen weiter. Familien werden massenweise vertrieben. Lebensrettende Hilfsgüter gehen zur Neige. Der Zugang für humanitäre Hilfe wird nach wie vor verweigert.
Unter diesen Umständen sind Hunderttausende von Vertriebenen in UNRWA-Schulen untergebracht. Tausende unserer humanitären Helfer sind vor Ort, um Hilfe zu leisten, aber Nahrungsmittel, Wasser und andere lebenswichtige Güter werden bald aufgebraucht sein.
Das UNRWA fordert den sofortigen Zugang zu humanitärer Hilfe und die Bereitstellung von Nahrungsmitteln und anderen Hilfsgütern für bedürftige Palästina-Flüchtlinge.
Dies ist ein Moment, der zum Handeln auffordert. Lassen Sie uns gemeinsam für die Menschlichkeit eintreten und denjenigen, die es am meisten brauchen, die dringend benötigte Hilfe bringen.

Hilfswerk der Vereinten Nationen für Palästina-Flüchtlinge

Spenden: https://donate.unrwa.org/gaza/~my-donation


 

EL Star 150

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.