Völkermordfall Gaza - Massenmord durch künstliche Intelligenz? - Aktualisiert

  • 4 Minuten Lesezeit

Vertrauliche Quellen aus israelischen Geheimdiensten haben gegenüber dem israelisch-palästinensischen Magazin  +972 von einem System künstlicher Intelligenz mit dem Namen "Lavender" berichtet, das die israelische Armee in Gaza benutzen soll, um "Hamas-Ziele" zu identifizieren und diese "Ziele" unter bewusster Inkaufnahme inakzeptabler Verluste an Zivilisten zu zerstören. Auch der renommierte britische Guardian berichtet darüber. Würde sich dieser Verdacht bestätigen, würde das nicht nur der moralischen, sondern auch der rechtlichen Verteidigung des Vorgehens Israels in Gaza weiter den Boden entziehen.

Das Magazin +972 legt die vier vorbereitenden "Schritte" der angewendeten automatisierten Systeme bis zum abschließenden Angriff im einzelnen dar:

In Schritt 1 werden "menschliche Angriffsziele" generiert: Nicht mehr nur hoch in der Hierarchie von Hamas und anderen militärischen Gruppen stehende Personen, sondern alle, auch "einfache" Kämpfer dieser Verbände, stellen legitime Angriffsziele dar, ohne dass es darauf ankäme, welche militärische Bedeutung sie besitzen. Das Programm hat etwa 37.000 Männer in Gaza als "legitime" Angriffsziele eingespeichert. Die betreffenden Individuen wurden zu keiner Zeit durch Menschen überwacht, sondern alleine aufgrund künstlicher Intelligenz und autodidaktischen ("machine-learning") Algorithmen aufgrund bestimmter vorgegebener Merkmale als "Hamas-Kämpfer" eingestuft. Hierbei wird bewusst in Kauf genommen, dass etwa zehn Prozent der identifizierten Männer trotz passender Features wie etwa der Teilnahme an einer WhatsApp-Gruppe mit einem bekannten Militanten falsch eingestuft werden und aufgrund dieser falschen Einstufung getötet werden.

In Schritt 2 wird bestimmt, wo die betreffenden Männer getötet werden sollen: Israel hat als Besatzungsmacht unmittelbaren Zugang auf sämtliche Meldedaten einschließlich Namen, Geschlecht, Familienstatus, Geburts- und Sterbedaten sowie Adressen der einzelnen Bewohner des Gazastreifens. Diese Informationen sowie ein umfassendes Überwachungssystem unter anderem mithilfe der Telefondaten der Betreffenden macht sich Israel nicht nur bei der Bestimmung, wer als Hamas-Kämpfer gilt, sondern auch bei der Festlegung des Ortes, wo die betreffende Person umgebracht werden soll, zunutze. Der bequemste Ort ist laut der Quellen die Familienwohnung des Betreffenden, so dass mit einem Überwachungsprogramm, das sich "Where's Daddy" nennt, die Armeeangehörigen eine Meldung erhalten, sobald die Person gerade zuhause ist. Laut der Quellen beinhaltet auch dieser Schritt ein hohes Fehlerrisiko, insbesondere, dass die Zielperson zum Zeitpunkt des Angriffs doch nicht oder nicht mehr anwesend ist.

In Schritt 3 wird bestimmt, welche Waffe am Zielort zu dem angenommenen Zeitpunkt der Anwesenheit der "Zielperson"  benutzt wird: Im Gegensatz zu den Familienheimen hochrangiger Mitglieder der Kampfgruppe werden die Privathäuser einfacher Kämpfer mit Ausnahme von Hochhäusern aus Kostengründen nur mit sogenannten "dumb bombs" angegriffen, also "dummen" Bomben, die wenig differenziert das gesamte Ziel-Haus wie auch teilweise daneben liegende Häuser zerstören und die meisten Bewohner töten oder schwer verletzen. Hier ist der Umfang der Zerstörung sozusagen umgekehrt proportional zu seinem militärischen Nutzen.

In Schritt 4 wird "geprüft", ob bei dem beabsichtigten Angriff die festgelegte Höchstzahl der zivilen Opfer eingehalten werden wird: Ist das Ziel ein einfacher Kämpfer, darf die voraussichtliche Zahl der zivilen Opfer nicht über 5 bis 20 Personen hinausgehen, im Fall von hochrangigen Mitgliedern der Kampfgruppen dürfen einhundert oder mehr Zivilisten einschließlich Frauen und Kindern getötet werden; in einem Fall autorisierte die israelische Armee die Ermordung oder Verstümmelung von etwa 300 Zivilsten und die Zerstörung von 16-18 Häusern im Al-Bureij Flüchtlingscamp, um ein hochrangiges Mitglied der Kampftruppen der Hamas zu töten. Auch hier wird das unter Schritt 2 beschriebene Fehlerrisiko in Kauf genommen.

Es ist evident, dass ein solches, mit relativ geringem finanziellem und personellem Aufwand und der Hinnahme einer hohen "Fehlerquote" betriebenes, "industrielles" Tötungssystem  nach den Regeln des Kriegsvölkerrechts nicht zu rechtfertigen wäre.

Nach einem bloßen Algorithmus als militärisch niedrig rangige Kämpfer eingestufte Männer nachts in ihren Wohnhäusern zusammen mit ihren Familien und Nachbarn unter Nutzung zielungenauer Waffen und ohne Prüfung der konkreten Umstände vor Ort umzubringen, anstatt sie zielgenau aber unter höherem Aufwand an Zeit und Geld während des Kampfgeschehens zu töten, widerspricht dem Prinzip der Verhältnismäßigkeit und steht außer Verhältnis zu einem jeglichen denkbaren "unmittelbaren" militärischen Vorteil dieser Vorgehensweise (siehe hierzu auch die Übersetzung der gewohnheitsrechtlichen Regeln des humanitären Völkerrechts des Deutschen Rotes Kreuzes, insbesondere Regel Nr. 14). Das gleiche gilt nach diesseitiger Auffassung auch für die Tötung hochrangiger Mitglieder der jeweiligen Kampfgruppen unter Inkaufnahme des Todes von hunderten Zivilisten.

Die von Israel und seinen Unterstützern gebetsmühlenhaft vorgetragene Behauptung, der hohe Anteil getöteter Frauen und Kinder sei in Anbetracht ihrer Nutzung als "menschliche Schutzschilde" durch Hamas unvermeidbar, ließe sich für den Fall der Bestätigung der oben beschriebenen Vorgehensweise ebenfalls nicht mehr aufrechterhalten.

Autor des Berichts in +972 ist Yuval Abraham, der Israeli, dem auf der letzten Berlinale zusammen mit dem Palästinenser Basel Adra der Preis für den besten Dokumentarfilm verliehen wurde.

Update: Der britische Guardian zeigt inzwischen ein Video, in welchem ein Mitglied von Israels Militär beschreibt, wie künstliche Intelligenz bereits in Israels Angriff auf den Gazastreifen im Mai 2021 benutzt wurde, um "neue Terroristen zu finden".








Artikel teilen:


Sie haben Fragen? Jetzt Kontakt aufnehmen!

Weitere Rechtstipps von Rechtsanwältin Dr. Jutta Stoll LL.M.

Beiträge zum Thema