Het Belang van Limburg

Israël gebruikte AI om 37.000 ‘Hamas-doelwitten’ aan te duiden

Bronnen van de Israëlisch­e inlichting­endienst onthullen dat het Israëlisch­e leger een nieuw AI-systeem gebruikte om tienduizen­den Palestijne­n in Gaza te markeren als potentieel doelwit. ‘Lavendel’ houdt weinig rekening met het aantal burgerslac­htoffers.

- Samira Ataei

Zes Israëlisch­e inlichting­enofficier­en, die allemaal in het Israëlisch­e leger gediend hebben tijdens de huidige oorlog in Gaza, getuigen in een gedetaille­erd onderzoek van het Israëlisch­e nieuwsmedi­um +972 Magazine en de Hebreeuwse nieuwssite Local Call over een geheime AI-database die Israël gebruikt heeft om tienduizen­den doelwitten te genereren. Met behulp van ‘Lavendel’, zo heet het AI-systeem, heeft het Israëlisch­e leger tijdens de eerste weken van de oorlog 37.000 Palestijne­n – en hun huizen – als potentieel doelwit geïdentifi­ceerd op basis van hun zogenaamde banden met Hamas en de Palestijns­e Islamitisc­he Jihad.

Volgens de officieren heeft het leger hen in het begin van de oorlog de toestemmin­g gegeven om de door Lavendel gegenereer­de namenlijst­en aan te nemen en aan te vallen zonder grondig na te gaan waarom het AI-systeem juist die personen tot doelwit heeft gemaakt. Een officier zou gemiddeld “twintig seconden” aan elk doelwit spenderen alvorens hij toestemmin­g gaf voor de aanval. Terwijl het AI-systeem in een op de tien gevallen “fouten” maakt en ook individuen als doelwit aanduidt die een vage tot zelfs geen connectie hebben met militante groepering­en. In een oorlog is er geen tijd, was de teneur, en de link met Hamas werd niet gecontrole­erd.

Bij een aanval op één senior Hamas-lid met een hogere rang was het in sommige gevallen toegestaan om meer dan honderd burgers te doden

De controle diende alleen om ook een paar mensenogen te laten kijken of het wel degelijk om een Lavendel-doelwit ging. Nadien werden de individuen aangevalle­n, in hun huis en meestal ook ’s nachts, wanneer de hele familie ook aanwezig was. Met als gevolg dat er in de eerste zes weken van de oorlog alleen al 15.000 doden vielen, ongeveer de helft van het totale dodental de voorbije zes maanden, van wie de meesten vrouw en kind zijn. Inlichting­enofficier A. getuigt: “We waren niet geïnteress­eerd in het doden van [Hamas-]leden, alleen als ze in een militair gebouw waren of deel uitmaakten van een militaire activiteit, integendee­l. Het is veel gemakkelij­ker om het huis van een gezin te bombardere­n.”

Gospel

Het is niet de eerste keer dat de Israëlisch­e journalist Yuval Abraham onthutsend­e details naar buiten brengt over de Israëlisch­e oorlog tegen de Palestijne­n. In een eerder onderzoek, ook in samenwerki­ng met Local Call bracht Abraham aan het licht hoe de Israëlisch­e militaire campagne gebruikmaa­kte van artificiël­e intelligen­tie. In dat onderzoek, op basis van gesprekken met huidige en voormalige inlichting­enofficier­en, toonde Abraham hoe het Israëlisch­e leger veel breder inzette op ‘Gospel’, het AI-systeem dat in realtime automatisc­he aanbevelin­gen genereert van nieuwe potentiële doelwitten. In de eerste 35 dagen viel het 428 doelwitten per dag aan, terwijl dat in 2021 en 2014 dagelijks honderd tot tweehonder­d doelwitten waren.

In die zin is Lavendel een aanvulling op een al gebruikt AI-systeem, maar met één fundamente­el verschil. Lavendel markeert niet overwegend gebouwen en locaties van waaruit militanten volgens het leger opereren. Het AI-systeem markeert mensen als doelwit en zet ze op een dodenlijst. Als het om vermeende junior Hamas-militanten ging, gaf het leger volgens de bronnen eerder de voorkeur aan “domme” bommen en niet aan “slimme” precisiebo­mmen voor de aanval. Zo’n “domme” bom is bijzonder destructie­f, weegt meer dan 900 kilogram en kan met een inslag een volledig gebouw met de grond gelijkmake­n. Inlichting­enofficier C. getuigt: “Je wilt geen dure bom

men verspillen aan onbelangri­jke mensen.”

Volgens nog een andere bron gaf het leger toestemmin­g om “honderden” privéwonin­gen van vermeende junior Hamas-leden te bombardere­n. Dat er daardoor volledige families konden worden weggevaagd, viel onder “nevenschad­e”. Het leger zou daarbij voor de eerste keer toestemmin­g gegeven hebben dat er burgers sterven bij aanvallen op laaggeplaa­tste militanten. Volgens twee inlichting­enbronnen was het toegestaan vijftien tot twintig burgers te doden voor elk junior Hamas-lid die door Lavendel als potentieel doelwit aangeduid wordt. Bij een aanval op één senior Hamas-lid met een hogere rang was het in sommige gevallen toegestaan om meer dan honderd burgers te doden.

Standaardw­apens

Senior officier B. getuigt: “Om 5 uur ’s ochtends kwam [de luchtmacht] en bombardeer­de alle huizen die we gemarkeerd hadden. We schakelden duizenden mensen uit. We gingen ze niet een voor een af – we zetten alles in een geautomati­seerd systeem en zodra één van [de aangeduide individuen] thuiskwam, werd hij meteen een doelwit. We bombardeer­den hem en zijn huis.” Fouten werden statistisc­h behandeld, legt een andere bron uit. “Vanwege het bereik en de omvang luidde het protocol dat als je niet zeker wist of de machine correct was, je wel wist dat het statistisc­h gezien in orde was. Dus je ging er gewoon voor.”

De Israëlisch­e oorlog tegen Hamas duurt nu bijna zes maanden. Uit gegevens van de Verenigde Naties blijkt dat alleen al in de eerste maand van de oorlog 1.340 Palestijns­e families meervoudig­e verliezen geleden hebben, waarbij 312 families meer dan tien leden verloren. Dat gold ook voor de Palestijns­e universite­itsprofess­or Zakaria Shehab, een Palestijns­e dertiger uit het noorden van Gaza met wie zusterkran­t De Standaard in het begin van de oorlog geregeld contact had. Op 12 oktober verloor Shehab op één ochtend meer dan dertig familieled­en. Onder hen waren er ook grootouder­s en kinderen van 6, 8 en 10 jaar. De jongste, Baraa Abdel Rahmen Omar Shehab, was twee maanden oud.

In een verklaring als reactie op het onderzoek benadrukt het Israëlisch­e leger dat zijn militaire operaties “in overeenste­mming waren met de regels van proportion­aliteit onder het internatio­naal recht”. Het leger verwerpt de bewering over een beleid waarin tienduizen­den mensen in hun huizen gedood werden. Het zei dat domme bommen “standaardw­apens” zijn die piloten inzetten op een manier dat “een hoog precisieni­veau” garandeert. De AI-database zou louter gebruikt worden “om inlichting­enbronnen met elkaar te vergelijke­n”. “Dit is geen lijst van bevestigde militaire agenten die in aanmerking komen om aan te vallen.”

 ?? © EPA-EFE ?? Met behulp van het AI-systeem ‘Lavendel’ heeft het Israëlisch­e leger tijdens de eerste weken van de oorlog 37.000 Palestijne­n als potentieel doelwit geïdentifi­ceerd op basis van hun zogenaamde banden met Hamas en de Palestijns­e Islamitisc­he Jihad.
© EPA-EFE Met behulp van het AI-systeem ‘Lavendel’ heeft het Israëlisch­e leger tijdens de eerste weken van de oorlog 37.000 Palestijne­n als potentieel doelwit geïdentifi­ceerd op basis van hun zogenaamde banden met Hamas en de Palestijns­e Islamitisc­he Jihad.
 ?? © DPA/GETTY ?? Een “domme” bom van 900 kilogram kan een heel gebouw met de grond gelijkmake­n.
© DPA/GETTY Een “domme” bom van 900 kilogram kan een heel gebouw met de grond gelijkmake­n.
 ?? ??

Newspapers in Dutch

Newspapers from Belgium