KI-Einsatz im Gaza-Krieg? Schwere Vorwürfe gegen Israels Armee
Setzt Israels Armee KI in Gaza ein? Ein Investigativjournalist erhebt schwere Vorwürfe. Bei der Auswahl von Hamas-Zielen seien mithilfe Künstlicher Intelligenz zivile Opfer in Kauf genommen worden. Das Militär weist das zurück.
Es waren die vertraulichen Aussagen von sechs Offizieren der Eliteeinheit des israelischen Geheimdienstes 8200, die den israelischen Investigativjournalisten Yuval Abraham zu der Schlussfolgerung kommen ließen: Kurz nach Kriegsausbruch habe das Militär ein KI-Programm namens "Lavender" (zu Deutsch "Lavendel") eingesetzt und zwar in sehr großem Umfang.
Formal sei das System darauf ausgelegt worden, die Geheimdienstdaten über aller Mitglieder des militärischen Flügels der Hamas und des Islamischen Dschihads mithilfe Künstlicher Intelligenz auszuwerten und als potenzielle Bombenziele zu kennzeichnen. Vor allem die sogenannten "einfachen Fußtruppen", die vorher kaum oder gar nicht geheimdienstlich erfasst worden seien.
"Auf dem Höhepunkt 37.000 Palästinenser markiert"
Über den Umfang des auf Künstlicher Intelligenz basierenden Programms sagt Yuval Abraham: "Der Umfang von 'Lavender', mit dem die Palästinenser in Gaza als verdächtige oder mögliche rangniedere militante Hamas- oder Islamischer-Dschihad-Kämpfer gekennzeichnet wurden? Meine Quellen sagten mir, dass 'Lavender' auf dem Höhepunkt 37.000 Palästinenser in Gaza als solche Verdächtige markiert hat."
Die Armee habe in den ersten Wochen des Krieges die Genehmigung erteilt, die besagt habe, dass für jeden vom KI-Programm 'Lavender' markierten Hamas-Bewaffneten, der einen niedrigen Rang innegehabt habe, bis zu 15 bis 20 Zivilisten getötet werden dürften. Bei der Bombardierung dieser Ziele, so hätten Abrahams Quellen aus der Eliteeinheit 8200 ihm mitgeteilt, seien vorrangig sogenannte "dumb bombs" eingesetzt worden, die ganze Häuser zerstört und alle Hausbewohner getötet hätten. Bei höherrangigen Hamas-Funktionären sei diese Schwelle deutlich angehoben worden.
Yuval Abraham veröffentlichte seine Recherche-Ergebnisse am Mittwoch dieser Woche im israelisch-palästinensischen Online-Magazin 972, zeitgleich mit dem britischen Guardian, mit dem er die brisanten Aussagen der israelischen Offiziere vorab geteilt hatte.
Informanten fühlen sich offenbar für Tötungen verantwortlich
Was das Motiv war, der überwiegend aus Reservisten bestehenden Offiziere, ihre streng geheimen Kenntnisse über die Anwendung von Künstlicher Intelligenz im Gaza-Krieg ihm gegenüber mitzuteilen? Es habe sich um Menschen gehandelt, von denen die meisten erst nach dem 7. Oktober zum Militär wieder gegangen seien.
"Sie waren schockiert von den Gräueltaten des 7. Oktober und den Massakern, die an diesem Tag begangen wurden. Und ich denke, dass einige von ihnen, nachdem sie wochenlang im Militär gedient und nach diesen Richtlinien gehandelt hatten, noch schockierter über die Dinge waren, die von ihnen verlangt wurden."
Einige hätten die Verantwortung empfunden, diese Informationen weiterzugeben, zuallererst an die israelische Öffentlichkeit, aber auch an die internationale Öffentlichkeit.
Doch es habe auch andere Gründe gegeben, warum sich seine Quellen aus der Eliteeinheit 8200 an ihn gewandt hätten, sagt Abraham: "Mehrere von ihnen sprachen mit mir darüber, dass sie sich direkt für die Tötung palästinensischer Familien verantwortlich fühlen." Sie seien der Meinung gewesen, dass viele der politischen Maßnahmen, "einschließlich der nahezu automatischen Abhängigkeit von der Künstlichen Intelligenz, nicht zu rechtfertigen sind."
Israelische Streitkräfte weisen Recherchen zurück
In einer ausführlichen Stellungnahme, die der britische Guardian bereits am Mittwoch im Wortlaut veröffentlicht hat, wiesen die israelischen Streitkräfte die Recherche-Ergebnisse entschieden zurück: Entgegen anders lautenden Behauptungen setze die Armee kein System der Künstlichen Intelligenz ein, "das Terroristen identifiziert oder versucht vorherzusagen, ob eine Person ein Terrorist ist."
Die Informationssysteme seien lediglich Werkzeuge für Analysten bei der Identifizierung von Zielen. Gemäß den Armee-Vorschriften müssten die Analysten unabhängige Untersuchungen durchführen, bei denen sie überprüfen, ob die identifizierten Ziele den einschlägigen Definitionen in Übereinstimmung mit dem Völkerrecht und den in den Armee-Direktiven entsprächen.
Nur minimale Überprüfung der Zielpersonen?
In der Praxis sehe das allerdings deutlich anders aus, so der Investigativjournalist Abraham: Seine Quellen hätten ihm gesagt, dass es eine Überprüfung pro Zielperson gegeben habe, "aber nur eine sehr minimale. Laut einer Quelle, die mit mir sprach, dauerte die menschliche Überwachung etwa 20 Sekunden pro markierter KI-Person, und die einzige Überprüfung, die er durchführen musste, bestand darin, zu hören und zu sehen, ob die Person männlich oder weiblich ist."
Wenn es sich also um eine Frau gehandelt habe, hätten sie gewusst, "dass 'Lavender' einen Fehler gemacht hatte, weil es eigentlich keine Frauen markieren sollte". Und wenn es sich um einen Mann gehandelt habe, hätten sie die Ergebnisse der KI genehmigt, "ohne sich die Gründe für die Entscheidung der Maschine anzusehen, ohne die geheimdienstlichen Rohdaten zu prüfen. Dazu waren sie nicht verpflichtet."