Een Israëlisch platform voor kunstmatige intelligentie (AI), genaamd ‘Gospel’, selecteert welke huizen, gebouwen, auto’s en mensen in Gaza moeten worden aangevallen. Een alternatief Israëlisch-Joods perspectief: ‘Een fabriek voor massamoorden: binnen Israëls berekende bombardementen op Gaza’
AI – Vergeleken met eerdere Israëlische aanvallen op Gaza heeft de huidige oorlog – die Israël ‘Operatie Iron Swords’ heeft genoemd en die begon in de nasleep van de door Hamas geleide aanval op Zuid-Israël op 7 oktober – ervoor gezorgd dat het leger zijn bombardementen op Gaza aanzienlijk heeft uitgebreid – vaak op doelen die niet duidelijk militair van aard zijn. Deze omvatten zowel privéwoningen als openbare gebouwen, infrastructuur en hoogbouw, die volgens bronnen door het leger worden gedefinieerd als ‘“machtsdoelen (power targets)”…. “matarot otzem matarot otzem”.
Het bombarderen van machtsdoelen is volgens inlichtingenbronnen die in het verleden uit de eerste hand ervaring hadden met de toepassing ervan in Gaza vooral bedoeld om het Palestijnse maatschappelijk middenveld te schaden: om “een schok te creëren” die, onder andere, krachtig zal weerklinken en “burgers ertoe aanzetten druk uit te oefenen op Hamas”, zoals een bron het uitdrukte.
Kunstmatige intelligentie, een door de mens gemaakt instrument dat gevreesd wordt vanwege de mogelijkheid om aan de menselijke controle te ontsnappen, lijkt door Israëliërs te worden gebruikt in hun razernij tegen de militante Hamas-groepering in Gaza, zo blijkt uit berichten in de media waarin Israëlische defensiefunctionarissen worden aangehaald.
Het Israëlische leger voert een intensieve bombardementscampagne uit op de Gazastrook, waarbij de rol van kunstmatige intelligentie (AI) opnieuw onder de aandacht wordt gebracht bij de selectie van doelwitten voor het bestormen van gebieden in de belegerde regio. Dit is vooral van cruciaal belang nu het Israëlische leger (IDF) zijn offensief tegen Hamas heeft hervat nadat de wapenstilstand tussen de aartsrivalen was geëindigd, zelfs nu landen aandringen op een verdere verlenging.
Kunstmatige intelligentie
De uitgebreide toestemming van het Israëlische leger voor het bombarderen van niet-militaire doelen, de versoepeling van de beperkingen met betrekking tot verwachte burgerslachtoffers en het gebruik van een kunstmatig intelligentiesysteem om meer potentiële doelen te genereren dan ooit tevoren, lijken te hebben bijgedragen aan één van de dodelijkste militaire campagnes tegen de Palestijnen sinds de Nakba van 1948.
Informatie over dit AI- systeem verscheen in een korte verklaring op de website van het Israëlische leger. Het zei dat het leger een op AI gebaseerd systeem genaamd Habsora (‘Het Evangelie’) gebruikte in de oorlog tegen Hamas om “in snel tempo doelen te produceren”. De verklaring noemde het systeem een ‘doelgeneratiefabriek’. Het wordt gebruikt door een speciale inlichtingeneenheid van het Israëlische leger, opgericht in 2019. Het departement in kwestie identificeerde van 7 oktober tot begin november 12.000 doelen in Gaza met behulp van ‘Gospel’, aldus de verklaring.
Na de elfdaagse oorlog in Gaza in mei 2021 zeiden Israëlische functionarissen, geciteerd door The Guardian, dat Israël zijn “eerste oorlog met kunstmatige intelligentie” had gevoerd met behulp van machinaal leren en geavanceerde computers.
De afgelopen jaren heeft het departement met behulp van kunstmatige intelligentie een database aangelegd van 30.000 tot 40.000 vermoedelijke Hamas- en Islamitische Jihad-strijders. Systemen zoals het ‘Evangelie’ hebben een cruciale rol gespeeld bij het samenstellen van lijsten van te vermoorden personen, meldt de Guardian.
Aviv Kochavi, die tot januari hoofd van het Israëlische leger was, zei dat het departement in kwestie honderden officieren en soldaten omvatte. In een interview dat vóór de oorlog werd gepubliceerd zei hij dat het “een machine was die op efficiëntere wijze grote hoeveelheden gegevens produceert dan welk mens dan ook en deze in doelwitten voor aanvallen verandert”.
Volgens Kochavi – “nadat deze machine was geactiveerd” tijdens de elfdaagse oorlog van Israël met Hamas in mei 2021 – genereerde deze 100 doelen per dag. “Om dat in perspectief te plaatsen: in het verleden zouden we vijftig doelen per jaar in Gaza hebben geproduceerd. Deze machine produceert nu 100 doelen per dag, waarvan 50% wordt aangevallen.”
Welke gegevens het “Evangelie” precies gebruikt, is niet bekend. Maar experts zeggen dat op AI gebaseerde beslissingsondersteunende systemen voor targeting doorgaans grote hoeveelheden informatie analyseren uit een reeks bronnen, zoals dronebeelden, onderschepte communicatie, surveillancegegevens en informatie die is verkregen uit het observeren van bewegingen en gedragspatronen van individuen en grote groepen. De AI lokaliseert huizen waar een Hamas-lid zou moeten wonen, tagt het huis of het hele flatgebouw, en het Israëlische leger bombardeert, waarbij alle bewoners omkomen, ongeacht of het burgers zijn.
Het systeem maakt een voorlopige analyse van hoeveel burgers precies zullen worden gedood. Israël zegt dat het probeert het aantal burgerslachtoffers tot een minimum te beperken. De beelden van de verwoesting in Gaza en de vermoorde kinderen en vrouwen weerleggen deze beweringen. Volgens de Palestijnse gezondheidsautoriteiten zijn tot nu toe ruim 15.000 Palestijnen gedood, waarvan ruim 6.000 kinderen en 4.000 vrouwen.
Volgens een nieuw VN-rapport is de totale kracht van de explosieven die Israël sinds 7 oktober tegen Gaza gebruikt al groter dan die van de atoombom die de Verenigde Staten aan het einde van de Tweede Wereldoorlog op Hiroshima hebben gegooid.
Experts op het gebied van kunstmatige intelligentie en gewapende conflicten hebben tegen de Guardian gezegd dat ze sceptisch staan tegenover beweringen dat op kunstmatige intelligentie (AI) gebaseerde systemen het aantal burgerslachtoffers verminderen door te zorgen voor een nauwkeurigere aanvalsdoelstelling. “Kijk naar het fysieke landschap in Gaza”, zegt Richard Moyes, een onderzoeker die campagne voert om wapenschade te verminderen. “We zien een enorm stedelijk gebied getroffen worden door zware explosieve wapens, dus om te zeggen dat er sprake is van precisie en beperking van het gebruik van geweld wordt niet ondersteund door de feiten.”
Volgens cijfers van het Israëlische leger heeft Israël in de eerste 35 dagen van de oorlog 15.000 doelen in Gaza aangevallen, een cijfer dat aanzienlijk hoger is dan bij eerdere militaire operaties in het dichtbevolkte kustgebied. Ter vergelijking: tijdens de oorlog van 2014, die 51 dagen duurde, heeft het Israëlische leger tussen de 5.000 en 6.000 doelen getroffen.
Bronnen die bekend zijn met de manier waarop op AI gebaseerde systemen worden geïntegreerd in Israëlische militaire operaties, zeggen dat dergelijke instrumenten het proces van het maken van doelen enorm hebben versneld.
“We bereiden de doelen automatisch voor en werken volgens een checklist”, aldus een bron die wordt aangehaald in een gezamenlijk onderzoek. “Het lijkt echt op een fabriek. We werken snel en hebben geen tijd om diep in het doel te graven. De opvatting is dat we worden beoordeeld op basis van het aantal targets dat we weten te scoren.” Een andere bron beweert dat het ‘Evangelie’ het Israëlische leger in staat heeft gesteld een ‘massamoordfabriek’ te runnen waarin ‘de nadruk ligt op kwantiteit, niet op kwaliteit’.
Voor sommige deskundigen die onderzoek doen naar kunstmatige intelligentie en het internationaal humanitair recht roept het gebruik ervan een aantal zorgen op. “De commandant krijgt een lijst met door de computer gegenereerde doelen overhandigd” en zij “weten niet noodzakelijkerwijs hoe de lijst is opgesteld, of hebben niet de mogelijkheid om aanbevelingen voor raketgeleiding adequaat te ondervragen en in twijfel te trekken.”
Een aantal kanttekeningen
– Inlichtingeneenheden van het Israëlische leger weten kort voordat ze een aanval uitvoeren hoeveel burgers er zeker zullen worden gedood.
– In één geval dat door de bronnen werd besproken, keurde het Israëlische militaire commando willens en wetens de moord op honderden Palestijnse burgers goed in een poging één enkele militaire topcommandant van Hamas te vermoorden.
– “Als een driejarig meisje wordt vermoord in een huis in Gaza, komt dat omdat iemand in het leger besloot dat het voor haar geen probleem was om vermoord te worden – dat het een prijs was die de moeite waard was”.
– Een andere reden voor het grote aantal doelwitten, en de uitgebreide schade aan het burgerleven in Gaza, is – zoals hierboven uiteengezet – het wijdverbreide gebruik van het systee “Habsora” (“Het Evangelie”) – een AI-systeem, dat, zoals beschreven door een voormalige inlichtingenofficier, in wezen een ‘massamoordfabriek’ faciliteert.
– In 2019 creëerde het Israëlische leger een nieuw centrum gericht op het gebruik van AI om het genereren van doelen te versnellen. “De Administratieve Afdeling Targets is een eenheid die honderden officieren en soldaten omvat, en is gebaseerd op AI-capaciteiten”, zei voormalig IDF-stafchef Aviv Kochavi eerder dit jaar in een diepte-interview met Ynet.
– Een hoge militaire functionaris die de leiding had over de doelwittenbank vertelde eerder dit jaar aan de Jerusalem Post dat het leger, dankzij hun AI-systemen, voor het eerst sneller nieuwe doelen kan genereren dan het aanvalt. Een andere bron zei dat de drang om automatisch grote aantallen doelwitten te genereren een realisatie is van de Dahiya-doctrine.
– De Israëlische minister van Defensie zei eerder, op 7 oktober, over de oorlog: “We vechten tegen menselijke dieren en we handelen dienovereenkomstig”
– “AI-systemen zijn notoir onbetrouwbaar en broos, vooral wanneer ze in situaties worden geplaatst die verschillen van hun trainingsgegevens”, zegt Paul Scharre, vice-president van het Center for a New American Security en auteur van “Four Battlegrounds: Power in the Age of Artificial Intelligence”. “Elke AI die betrokken is bij gerichte beslissingen, is een groot risico dat je het verkeerde doelwit treft”, zegt Scharre. “Het zou burgerslachtoffers kunnen veroorzaken of vriendschappelijke doelen kunnen raken en broedermoord kunnen veroorzaken.”