De Wereld Vandaag
'Lavendel', 'Het Evangelie' en 'Where's Daddy?': hoe Israël AI gebruikt om Palestijnse doelwitten te bombarderen
do 4 apr. - 10:00
Het onderzoek is uitgevoerd door een groep van Palestijnse en Israëlische journalisten van +972 magazine en Local Call. De journalisten gingen in gesprek met 6 Israëli's die binnen de inlichtingendienst actief zijn, tijdens de oorlog in het leger hebben gediend en zelf met de AI-systemen hebben gewerkt.
Een van de belangrijkste AI-programma's kreeg de naam 'Lavendel'. Het is door Israël ontworpen om te achterhalen welke Palestijnen in de Gazastrook mogelijk een link hadden met Hamas of met het kleinere Islamitische Jihad.
Het systeem identificeerde minstens 37.000 mensen die mogelijk tot een terreurgroep behoorden. Volgens de 6 bronnen speelde dat systeem een essentiële rol om te bepalen wie tijdens de eerste weken van de oorlog met luchtaanvallen geviseerd werd.
Verwoesting in de omgeving van het Al-Shifa ziekenhuis
Marijn Hoijtink werkt als professor internationale betrekkingen aan de UAntwerpen. Zij is ook gespecialiseerd in militaire technologieën en internationale veiligheid. Artificiële intelligentie gebruikt telkens bepaalde algoritmes, maar volgens Hoijtink is er weinig informatie beschikbaar over de werkwijze van het systeem.
"Het lijkt alsof de parameters die het systeem hanteert redelijk breed gaan", stelt Hoijtink. "De Israëli's werken met heel algemene categorieën, zoals 'man van een bepaalde leeftijd', om een link met Hamas te vinden. Dat verklaart ook waarom het systeem zoveel doelwitten genereert. Er staan niet alleen hooggeplaatste leden, maar ook lagere strijders van Hamas in die lijst. Eigenlijk is het gebrek aan transparantie een probleem, zeker binnen een militaire context."
"20 seconden" om controle af te ronden
Daarnaast blijkt dat er weinig tot geen menselijke controle was tussen de identificatie van een doelwit en het bevel om een aanval uit te voeren. Een van de bronnen gaf aan dat hij persoonlijk "zo'n 20 seconden nodig had" om na te kijken of het doelwit een man was. Als dat zo was, kon het bombardement al snel doorgaan.
Dat gebrek aan controle is opvallend. Volgens de Israëlische media is het systeem namelijk niet onfeilbaar. In 90 procent van de gevallen zou er inderdaad een aantoonbare link zijn tussen het doelwit en een terreurorganisatie. "90 procent lijkt heel veel", zegt Hoijtink, "en er zijn heel wat AI-systemen die zulke resultaten niet halen. Vergeet echter niet dat er in dit geval wordt beslist over leven en dood. 'Slechts' 90 procent zou in dit geval dus problematisch kunnen zijn."
Het Israëlische leger (IDF) gebruikt niet alleen 'Lavendel' in zijn oorlog tegen Hamas, maar ook 'Het Evangelie'. Dat systeem richt zich niet op mensen, maar op gebouwen en locaties die mogelijk door terreurgroepen worden gebruikt.
Israëlische tank in de Gazastrook
Toch zijn die gebouwen niet altijd het hoofddoel van het Israëlische leger. Uit het onderzoek blijkt dat het IDF systematisch de huizen van doelwitten bombardeerde, ook als de familieleden van de militanten thuis waren. Dat gebeurde onder meer met het geautomatiseerde systeem 'Where's Daddy?', waarmee het leger de verdachte volgde en uiteindelijk bombardeerde wanneer die zijn huis binnenging.
"We probeerden militanten van Hamas niet alleen uit te schakelen wanneer ze zich in een hoofdkwartier van de terreurgroep bevonden", stelt een van de inlichtingenofficieren. "Integendeel. Het leger voerde zonder aarzeling luchtaanvallen uit op huizen, omdat die doelwitten vaak gemakkelijker neer te halen zijn. Het systeem is ontworpen om de doelwitten in die situaties te zoeken."
2 bronnen gaven ook aan dat het leger de toestemming kreeg om luchtaanvallen uit te voeren als burgers in de buurt van het doelwit waren. Bij een aanval op laaggeplaatste militanten mochten 15 tot 20 burgerslachtoffers betrokken zijn. Daarbij werd aangeraden om "domme" of ongeleide bommen te gebruiken, want "je wilt geen dure bommen aan onbelangrijke mensen verspillen".
Bij militanten met hoge posities binnen de organisatie was het volgens het IDF verantwoord dat er tot 100 burgerslachtoffers konden vallen. Sinds het begin van de oorlog zijn volgens het Gazaanse ministerie van Gezondheid al meer dan 33.000 Palestijnse doden en meer dan 75.000 gewonden gevallen.
Niet verboden en Israël is niet alleen
In een eerste reactie ontkent het Israëlische leger niet dat de AI-systemen bestaan, maar wel dat het IDF die programma's gebruikt om doelwitten te viseren. "De informatiesystemen zijn slechts hulpmiddelen voor analisten om doelwitten te identificeren" stelt het IDF, en dat "analisten onafhankelijke onderzoeken moeten uitvoeren om geïdentificeerde doelen te verifiëren".
Professor Hoijtink benadrukt ook dat het volgens het internationaal humanitair recht niet verboden is om AI-toepassingen te gebruiken. "Wat we wel zien, is dat 'Lavendel' vragen oproept over proportionaliteit door de hoeveelheid doelwitten dat het genereert. Israël heeft, net als alle andere landen, de plicht om zijn targets te verifiëren en burgers en civiele infrastructuur te beschermen."
Israël is trouwens niet het enige land dat AI in militaire context gebruikt. "Alle grote militaire mogendheden ontwikkelen AI, voor alle mogelijke doeleinden. Dat gaat onder meer over systemen om besluiten te nemen, maar daar gaat wel nog menselijk handelen mee gepaard."
Bron: vrtnws.be en 'De wereld vandaag'