Zorgen over datagestuurde ‘fabriek’ die het aantal doelwitten voor aanvallen op Palestijns grondgebied aanzienlijk vergroot
Het Israëlische leger heeft geen geheim gemaakt van de intensiteit van zijn bombardementen op de Gazastrook. In de begindagen van het offensief sprak het hoofd van de luchtmacht over meedogenloze luchtaanvallen ‘de klok rond’. Zijn troepen, zo zei hij, richtten zich alleen op militaire doelen, maar hij voegde eraan toe: “We zijn niet chirurgisch bezig.”
Er is echter relatief weinig aandacht besteed aan de methoden die door het Israëlische leger (IDF) worden gebruikt om doelen in Gaza te selecteren , en aan de rol die kunstmatige intelligentie heeft gespeeld in hun bombardementencampagne.
Terwijl Israël zijn offensief hervat na een zeven dagen durend staakt-het-vuren, zijn er toenemende zorgen over de doelgerichte aanpak van de IDF in een oorlog tegen Hamas die volgens het ministerie van Volksgezondheid in het door Hamas geleide Gaza tot nu toe meer dan 15.000 mensen in het gebied heeft gedood.
De IDF heeft haar reputatie op het gebied van technische bekwaamheid al lang opgepoetst en heeft eerder gedurfde maar niet-verifieerbare beweringen gedaan over het benutten van nieuwe technologie. Na de elfdaagse oorlog in Gaza in mei 2021 zeiden functionarissen dat Israël zijn “eerste AI-oorlog” had gevoerd met behulp van machinaal leren en geavanceerde computers.
De jongste oorlog tussen Israël en Hamas heeft de IDF een ongekende kans geboden om dergelijke instrumenten in een veel breder operatiegebied te gebruiken en, in het bijzonder, om een platform voor het creëren van AI-doelen in te zetten, genaamd ‘het Evangelie’, dat een dodelijke aanval aanzienlijk heeft versneld. productielijn van doelen die ambtenaren hebben vergeleken met een ‘fabriek’.
The Guardian kan nieuwe details onthullen over het Evangelie en de centrale rol ervan in de Israëlische oorlog in Gaza, met behulp van interviews met inlichtingenbronnen en weinig opgemerkte verklaringen van de IDF en gepensioneerde functionarissen.
Dit artikel is ook gebaseerd op getuigenissen gepubliceerd door de Israëlisch-Palestijnse publicatie +972 Magazine en de Hebreeuwse taalwinkel Local Call, die verschillende huidige en voormalige bronnen in de Israëlische inlichtingengemeenschap hebben geïnterviewd die kennis hebben van het Gospel-platform.
Hun opmerkingen bieden een kijkje in een geheime, door AI gefaciliteerde militaire inlichtingeneenheid die een belangrijke rol speelt in de Israëlische reactie op het bloedbad van Hamas in Zuid-Israël op 7 oktober.
Het langzaam opkomende beeld van hoe het Israëlische leger AI inzet, komt tegen een achtergrond van groeiende zorgen over de risico’s voor burgers nu geavanceerde legers over de hele wereld het gebruik van complexe en ondoorzichtige geautomatiseerde systemen op het slagveld uitbreiden.
“Andere staten zullen toekijken en leren”, zei een voormalige veiligheidsfunctionaris van het Witte Huis die bekend was met het gebruik van autonome systemen door het Amerikaanse leger.
De oorlog tussen Israël en Hamas, zo zeiden ze, zou een “belangrijk moment zijn als de IDF AI op een significante manier gaat gebruiken om doelgerichte keuzes te maken met gevolgen op leven en dood”.
Van 50 targets per jaar naar 100 per dag
Begin november zei de IDF dat “meer dan 12.000” doelwitten in Gaza waren geïdentificeerd door de divisie voor het doelwitbeheer.
Een functionaris beschreef het richtproces van de eenheid: “We werken zonder compromissen bij het definiëren van wie en wat de vijand is. De agenten van Hamas zijn niet immuun – waar ze zich ook verstoppen.”
De activiteiten van de divisie, die in 2019 werd opgericht in het inlichtingendirectoraat van de IDF, zijn geheim.
Een korte verklaring op de IDF-website beweerde echter dat het een op AI gebaseerd systeem genaamd Habsora (het Evangelie, in het Engels) gebruikte in de oorlog tegen Hamas om “in snel tempo doelen te produceren”.
De IDF zei dat “door de snelle en automatische extractie van inlichtingen” het Evangelie gerichte aanbevelingen voor zijn onderzoekers deed “met als doel een volledige match tussen de aanbeveling van de machine en de identificatie uitgevoerd door een persoon”.
Meerdere bronnen die bekend waren met de targetingprocessen van de IDF bevestigden het bestaan van het Evangelie aan +972/Local Call en zeiden dat het was gebruikt om geautomatiseerde aanbevelingen te doen voor het aanvallen van doelen, zoals de privéwoningen van personen die ervan verdacht werden Hamas of Islamitische Jihad-agenten te zijn.
De afgelopen jaren heeft de doeldivisie de IDF geholpen een database op te bouwen van volgens bronnen tussen de 30.000 en 40.000 vermoedelijke militanten. Systemen zoals het Evangelie, zeiden ze, hadden een cruciale rol gespeeld bij het opstellen van lijsten van personen die toestemming hadden om te worden vermoord.
Aviv Kochavi, die tot januari hoofd van de IDF was, heeft gezegd dat de doeldivisie “aangedreven wordt door AI-capaciteiten” en honderden officieren en soldaten omvat.
In een interview dat vóór de oorlog werd gepubliceerd , zei hij dat het “een machine was die op effectievere wijze grote hoeveelheden gegevens produceert dan welk mens dan ook, en deze vertaalt in doelwitten voor aanvallen”.
Volgens Kochavi genereerde deze machine “zodra deze machine eenmaal was geactiveerd” tijdens de elfdaagse oorlog van Israël met Hamas in mei 2021 100 doelen per dag. “Om dat in perspectief te plaatsen: in het verleden produceerden we 50 doelen per jaar in Gaza. Nu produceert deze machine honderd doelen op één dag, waarvan 50% wordt aangevallen.”
Welke vormen van gegevens precies in het Evangelie worden opgenomen, is niet bekend. Maar experts zeggen dat op AI gebaseerde beslissingsondersteunende systemen voor targeting doorgaans grote hoeveelheden informatie uit een reeks bronnen analyseren, zoals dronebeelden, onderschepte communicatie, surveillancegegevens en informatie afkomstig uit het monitoren van de bewegingen en gedragspatronen van individuen en grote groepen.
De doelafdeling werd opgericht om een chronisch probleem voor de IDF aan te pakken: bij eerdere operaties in Gaza had de luchtmacht herhaaldelijk geen doelen meer om aan te vallen. Omdat hoge Hamas-functionarissen bij het begin van een nieuw offensief in tunnels verdwenen, zeiden bronnen, stelden systemen zoals het Evangelie de IDF in staat een veel grotere groep van jongere agenten te lokaliseren en aan te vallen.
Eén functionaris, die bij eerdere operaties in Gaza aan doelgerichte beslissingen werkte, zei dat de IDF niet eerder de huizen van jonge Hamas-leden had aangevallen voor bombardementen. Ze zeiden dat ze geloofden dat dit in het huidige conflict veranderd was, waarbij de huizen van vermoedelijke Hamas-agenten nu het doelwit zijn, ongeacht hun rang.
“Dat zijn veel huizen”, vertelde de functionaris aan +972/Local Call. “Hamas-leden die eigenlijk niets betekenen, wonen in huizen in heel Gaza. Dus markeren ze het huis, bombarderen het huis en vermoorden iedereen daar.”
Doelwitten krijgen een ‘score’ voor het waarschijnlijke dodental onder burgers
In de korte verklaring van de IDF over zijn doelafdeling zei een hoge functionaris dat de eenheid “precieze aanvallen uitvoert op de infrastructuur die verband houdt met Hamas, terwijl ze grote schade toebrengt aan de vijand en minimale schade aan niet-strijders”.
De precisie van de aanvallen die worden aanbevolen door de “AI-doelbank” is benadrukt in meerdere rapporten in de Israëlische media. Het dagblad Yedioth Ahronoth meldde dat de eenheid “er voor zover mogelijk voor zorgt dat niet-betrokken burgers geen schade wordt berokkend”.
Een voormalige hoge Israëlische militaire bron vertelde de Guardian dat agenten een “zeer nauwkeurige” meting gebruiken van het aantal burgers dat een gebouw evacueert kort voor een aanval. “We gebruiken een algoritme om te evalueren hoeveel burgers er nog over zijn. Het geeft ons een groen, geel, rood, zoals een verkeerslicht.”
Deskundigen op het gebied van AI en gewapende conflicten die met de Guardian spraken, zeiden echter dat ze sceptisch stonden tegenover de bewering dat op AI gebaseerde systemen de schade aan burgers zouden verminderen door nauwkeuriger richten aan te moedigen.
Een advocaat die regeringen adviseert over AI en de naleving van het humanitair recht zei dat er “weinig empirisch bewijs” was om dergelijke beweringen te ondersteunen. Anderen wezen op de zichtbare impact van het bombardement.
“Kijk naar het fysieke landschap van Gaza”, zegt Richard Moyes, een onderzoeker die leiding geeft aan Article 36, een groep die campagne voert om de schade door wapens te verminderen.
“We zien de wijdverspreide afvlakking van een stedelijk gebied met zware explosieven, dus de bewering dat er precisie en beperkte kracht wordt uitgeoefend wordt niet door de feiten ondersteund.”
Volgens cijfers die in november door de IDF zijn vrijgegeven, viel Israël tijdens de eerste 35 dagen van de oorlog 15.000 doelen in Gaza aan, een cijfer dat aanzienlijk hoger is dan eerdere militaire operaties in het dichtbevolkte kustgebied. Ter vergelijking: tijdens de oorlog van 2014, die 51 dagen duurde, heeft de IDF tussen de 5.000 en 6.000 doelen getroffen.
Meerdere bronnen vertelden aan de Guardian en +972/Local Call dat wanneer een aanval werd toegestaan op de privéwoningen van personen geïdentificeerd als Hamas of Islamitische Jihad-agenten, de doelonderzoekers van tevoren wisten hoeveel burgers er naar verwachting zouden worden gedood.
Elk doelwit, zo zeiden ze, had een dossier met een collateral damage-score die aangaf hoeveel burgers waarschijnlijk zouden worden gedood bij een aanval.
Eén bron die tot 2021 werkte aan het plannen van stakingen voor de IDF zei dat “het besluit om te staken wordt genomen door de dienstdoende eenheidscommandant”, van wie sommigen “meer schietvreugde hadden dan anderen”.
De bron zei dat er gevallen waren waarin “er twijfel bestond over een doelwit” en “we doodden wat volgens mij een onevenredig groot aantal burgers was”.
Een Israëlische militaire woordvoerder zei: “Als reactie op de barbaarse aanvallen van Hamas opereert de IDF om de militaire en administratieve capaciteiten van Hamas te ontmantelen. In schril contrast met de opzettelijke aanvallen van Hamas op Israëlische mannen, vrouwen en kinderen volgt de IDF het internationale recht en neemt zij haalbare voorzorgsmaatregelen om de schade aan de burgerbevolking te beperken.”
‘Massamoordfabriek’
Bronnen die bekend zijn met de manier waarop op AI gebaseerde systemen zijn geïntegreerd in de operaties van de IDF, zeggen dat dergelijke hulpmiddelen het proces voor het creëren van doelen aanzienlijk hebben versneld.
“We bereiden de doelen automatisch voor en werken volgens een checklist”, vertelde een bron die eerder bij de doelafdeling werkte aan +972/Local Call. “Het lijkt echt op een fabriek. We werken snel en er is geen tijd om diep in de doelgroep te duiken. De opvatting is dat we worden beoordeeld op basis van het aantal doelstellingen dat we weten te genereren.”
Een afzonderlijke bron vertelde de publicatie dat het Evangelie de IDF in staat had gesteld een ‘massamoordfabriek’ te runnen waarin de ‘nadruk lag op kwantiteit en niet op kwaliteit’. Een menselijk oog, zeiden ze, “zal vóór elke aanval over de doelen heen kijken, maar hoeft er niet veel tijd aan te besteden”.
Voor sommige experts die onderzoek doen naar AI en het internationaal humanitair recht roept een dergelijke versnelling een aantal zorgen op.
Dr. Marta Bo, een onderzoeker aan het Stockholm International Peace Research Institute, zei dat zelfs als ‘mensen op de hoogte zijn’ er een risico bestaat dat ze ‘automatiseringsvooroordelen’ ontwikkelen en ‘overmatig vertrouwen op systemen die te veel invloed gaan hebben op complexe menselijke beslissingen”.
Moyes van Artikel 36 zei dat wanneer hij vertrouwt op instrumenten als het Evangelie, een commandant “een lijst met doelen krijgt die een computer heeft gegenereerd” en dat hij “niet noodzakelijkerwijs weet hoe de lijst is gemaakt of de mogelijkheid heeft om de doelgerichte aanbevelingen adequaat te ondervragen en ter discussie te stellen”.
“Het gevaar bestaat”, voegde hij eraan toe, “dat mensen, naarmate ze afhankelijker worden van deze systemen, radertjes worden in een gemechaniseerd proces en het vermogen verliezen om op een zinvolle manier rekening te houden met het risico van schade aan de burgerbevolking.”