Israël gebruikte AI om 37.000 ‘Hamas-doelwitten’ aan te duiden
Bronnen van de Israëlische inlichtingendienst onthullen dat het Israëlische leger een nieuw AI-systeem gebruikte om tienduizenden Palestijnen in Gaza te markeren als potentieel doelwit. ‘Lavendel’ houdt weinig rekening met het aantal burgerslachtoffers.
Zes Israëlische inlichtingenofficieren, die allemaal in het Israëlische leger gediend hebben tijdens de huidige oorlog in Gaza, getuigen in een gedetailleerd onderzoek van het Israëlische nieuwsmedium +972 Magazine en de Hebreeuwse nieuwssite Local Call over een geheime AI-database die Israël gebruikt heeft om tienduizenden doelwitten te genereren. Met behulp van ‘Lavendel’, zo heet het AI-systeem, heeft het Israëlische leger tijdens de eerste weken van de oorlog 37.000 Palestijnen – en hun huizen – als potentieel doelwit geïdentificeerd op basis van hun zogenaamde banden met Hamas en de Palestijnse Islamitische Jihad.
Volgens de officieren heeft het leger hen in het begin van de oorlog de toestemming gegeven om de door Lavendel gegenereerde namenlijsten aan te nemen en aan te vallen zonder grondig na te gaan waarom het AI-systeem juist die personen tot doelwit heeft gemaakt. Een officier zou gemiddeld “twintig seconden” aan elk doelwit spenderen alvorens hij toestemming gaf voor de aanval. Terwijl het AI-systeem in een op de tien gevallen “fouten” maakt en ook individuen als doelwit aanduidt die een vage tot zelfs geen connectie hebben met militante groeperingen. In een oorlog is er geen tijd, was de teneur, en de link met Hamas werd niet gecontroleerd.
Bij een aanval op één senior Hamas-lid met een hogere rang was het in sommige gevallen toegestaan om meer dan honderd burgers te doden
De controle diende alleen om ook een paar mensenogen te laten kijken of het wel degelijk om een Lavendel-doelwit ging. Nadien werden de individuen aangevallen, in hun huis en meestal ook ’s nachts, wanneer de hele familie ook aanwezig was. Met als gevolg dat er in de eerste zes weken van de oorlog alleen al 15.000 doden vielen, ongeveer de helft van het totale dodental de voorbije zes maanden, van wie de meesten vrouw en kind zijn. Inlichtingenofficier A. getuigt: “We waren niet geïnteresseerd in het doden van [Hamas-]leden, alleen als ze in een militair gebouw waren of deel uitmaakten van een militaire activiteit, integendeel. Het is veel gemakkelijker om het huis van een gezin te bombarderen.”
Gospel
Het is niet de eerste keer dat de Israëlische journalist Yuval Abraham onthutsende details naar buiten brengt over de Israëlische oorlog tegen de Palestijnen. In een eerder onderzoek, ook in samenwerking met Local Call bracht Abraham aan het licht hoe de Israëlische militaire campagne gebruikmaakte van artificiële intelligentie. In dat onderzoek, op basis van gesprekken met huidige en voormalige inlichtingenofficieren, toonde Abraham hoe het Israëlische leger veel breder inzette op ‘Gospel’, het AI-systeem dat in realtime automatische aanbevelingen genereert van nieuwe potentiële doelwitten. In de eerste 35 dagen viel het 428 doelwitten per dag aan, terwijl dat in 2021 en 2014 dagelijks honderd tot tweehonderd doelwitten waren.
In die zin is Lavendel een aanvulling op een al gebruikt AI-systeem, maar met één fundamenteel verschil. Lavendel markeert niet overwegend gebouwen en locaties van waaruit militanten volgens het leger opereren. Het AI-systeem markeert mensen als doelwit en zet ze op een dodenlijst. Als het om vermeende junior Hamas-militanten ging, gaf het leger volgens de bronnen eerder de voorkeur aan “domme” bommen en niet aan “slimme” precisiebommen voor de aanval. Zo’n “domme” bom is bijzonder destructief, weegt meer dan 900 kilogram en kan met een inslag een volledig gebouw met de grond gelijkmaken. Inlichtingenofficier C. getuigt: “Je wilt geen dure bom
men verspillen aan onbelangrijke mensen.”
Volgens nog een andere bron gaf het leger toestemming om “honderden” privéwoningen van vermeende junior Hamas-leden te bombarderen. Dat er daardoor volledige families konden worden weggevaagd, viel onder “nevenschade”. Het leger zou daarbij voor de eerste keer toestemming gegeven hebben dat er burgers sterven bij aanvallen op laaggeplaatste militanten. Volgens twee inlichtingenbronnen was het toegestaan vijftien tot twintig burgers te doden voor elk junior Hamas-lid die door Lavendel als potentieel doelwit aangeduid wordt. Bij een aanval op één senior Hamas-lid met een hogere rang was het in sommige gevallen toegestaan om meer dan honderd burgers te doden.
Standaardwapens
Senior officier B. getuigt: “Om 5 uur ’s ochtends kwam [de luchtmacht] en bombardeerde alle huizen die we gemarkeerd hadden. We schakelden duizenden mensen uit. We gingen ze niet een voor een af – we zetten alles in een geautomatiseerd systeem en zodra één van [de aangeduide individuen] thuiskwam, werd hij meteen een doelwit. We bombardeerden hem en zijn huis.” Fouten werden statistisch behandeld, legt een andere bron uit. “Vanwege het bereik en de omvang luidde het protocol dat als je niet zeker wist of de machine correct was, je wel wist dat het statistisch gezien in orde was. Dus je ging er gewoon voor.”
De Israëlische oorlog tegen Hamas duurt nu bijna zes maanden. Uit gegevens van de Verenigde Naties blijkt dat alleen al in de eerste maand van de oorlog 1.340 Palestijnse families meervoudige verliezen geleden hebben, waarbij 312 families meer dan tien leden verloren. Dat gold ook voor de Palestijnse universiteitsprofessor Zakaria Shehab, een Palestijnse dertiger uit het noorden van Gaza met wie zusterkrant De Standaard in het begin van de oorlog geregeld contact had. Op 12 oktober verloor Shehab op één ochtend meer dan dertig familieleden. Onder hen waren er ook grootouders en kinderen van 6, 8 en 10 jaar. De jongste, Baraa Abdel Rahmen Omar Shehab, was twee maanden oud.
In een verklaring als reactie op het onderzoek benadrukt het Israëlische leger dat zijn militaire operaties “in overeenstemming waren met de regels van proportionaliteit onder het internationaal recht”. Het leger verwerpt de bewering over een beleid waarin tienduizenden mensen in hun huizen gedood werden. Het zei dat domme bommen “standaardwapens” zijn die piloten inzetten op een manier dat “een hoog precisieniveau” garandeert. De AI-database zou louter gebruikt worden “om inlichtingenbronnen met elkaar te vergelijken”. “Dit is geen lijst van bevestigde militaire agenten die in aanmerking komen om aan te vallen.”