Terwijl er in Oekraïne en het Midden-Oosten conflicten woeden, is het moderne slagveld een proefterrein geworden voor door AI aangestuurde oorlogsvoering.
Van autonome drones tot voorspellende doelbepalingsalgoritmen: AI-systemen veranderen de aard van gewapende conflicten.
De VS, Oekraïne, Rusland, China, Israël en andere landen zijn verwikkeld in een wapenwedloop op het gebied van AI. Ze strijden allemaal om de technologische suprematie in een steeds onstabieler geopolitiek landschap.
Naarmate er nieuwe wapens en tactieken ontstaan, worden ook de gevolgen duidelijker.
We worden nu geconfronteerd met kritische vragen over de toekomst van oorlogsvoering, menselijke controle en de ethiek van het uitbesteden van beslissingen over leven en dood aan machines.
AI heeft mogelijk al militaire escalatie veroorzaakt
In 2017 vertegenwoordigde Project Maven de primaire inspanning van het Pentagon om AI te integreren in militaire operaties. Het doel is om realtime identificatie en tracking van doelen mogelijk te maken op basis van dronebeelden zonder menselijke tussenkomst.
Hoewel Project Maven vaak wordt besproken in termen van het analyseren van beelden van dronecamera’s, reiken de mogelijkheden ervan waarschijnlijk veel verder.
Volgens het onderzoek van de non-profit waakhond Tech Inquiry verwerkt het AI-systeem ook gegevens van satellieten, radar, sociale media en zelfs gevangen vijandelijke middelen. Dit brede scala aan inputs staat bekend als “all-source intelligence”.
In maart 2023 vond er een militair incident plaats toen een Amerikaanse MQ-9 Reaper-drone in botsing kwam met een Russisch straaljager boven de Zwarte Zee, waarbij de drone neerstortte.
Kort voor het incident bevestigde de National Geospatial-Intelligence Agency (NGA) dat de technologie van Project Maven in Oekraïne werd gebruikt.
Luitenant-generaal Christopher T. Donahue, commandant van het XVIII Airborne Corps, verklaarde later heel duidelijk over het conflict tussen Oekraïne en Rusland: “Uiteindelijk werd dit ons laboratorium.”
Project Maven in Oekraïne omvatte geavanceerde AI-systemen die geïntegreerd waren in de Lynx Synthetic Aperture Radar (SAR) van MQ-9 Reapers. Als zodanig zou AI een rol kunnen hebben gespeeld bij de dronebotsing.
Na de aanval ontbood de VS de Russische ambassadeur in Washington om zijn bezwaren kenbaar te maken, terwijl het Amerikaanse Europese Commando het incident ‘onveilig en onprofessioneel’ noemde.
Rusland ontkende dat er een botsing had plaatsgevonden. Als reactie hierop verplaatste de VS een aantal onbemande vliegtuigen om de regio te monitoren, waar Rusland tegen protesteerde.
Deze situatie bracht de dreiging met zich mee dat AI-systemen militaire beslissingen zouden kunnen beïnvloeden en zelfs zouden kunnen bijdragen aan onvoorziene escalaties in militaire conflicten.
Zoals Tech Inquiry vraagt: “Het is de moeite waard om te bepalen of Project Maven onbedoeld heeft bijgedragen aan een van de meest significante militaire escalaties van onze tijd.”
Ethische mijnenvelden
De prestaties van Project Maven zijn tot nu toe wisselend geweest.
Volgens Bloomberg-gegevens geciteerd door de Kyiv Independent , “kunnen soldaten bij gebruik van verschillende soorten beeldgegevens in 84% van de gevallen een tank correct identificeren, terwijl Project Maven AI dichter bij de 60% zit, waarbij dit percentage daalt tot 30% bij sneeuwval.”
Hoewel de ethische implicaties van het gebruik van AI bij het nemen van beslissingen over leven en dood in oorlogsvoering zeer verontrustend zijn, vormt het risico op storingen een nog huiveringwekkender aspect van deze technologische wapenwedloop.
Het is niet alleen de vraag of we AI moeten inzetten om mensen aan te vallen, maar ook of we erop kunnen vertrouwen dat deze systemen in de mist van de oorlog naar behoren functioneren.
Wat gebeurt er als burgers in de buurt als doelwit worden bestempeld en autonoom worden vernietigd? En wat als de drone zelf op hol slaat en defect raakt, en in omgevingen terechtkomt waarvoor hij niet is getraind?
AI-storingen in deze context zijn niet alleen een technische storing, maar ook een potentiële katalysator voor een tragedie op onvoorstelbare schaal. In tegenstelling tot menselijke fouten, die misschien beperkt zijn in omvang, kan een fout van een AI-systeem binnen enkele seconden leiden tot wijdverbreide, willekeurige slachting.
Er zijn al toezeggingen gedaan om deze ontwikkelingen te vertragen en wapens geheim te houden. Dat blijkt wel uit het feit dat 30 landen zich hebben aangesloten bij de Amerikaanse maatregelen op het gebied van AI-militaire technologie.
Het Amerikaanse ministerie van Defensie (DoD) heeft ook vijf ‘ ethische principes voor kunstmatige intelligentie ’ voor militair gebruik gepubliceerd, waaronder dat ‘DoD-personeel de juiste mate van oordeel en zorg zal betrachten, terwijl het verantwoordelijk blijft voor de ontwikkeling, inzet en het gebruik van AI-mogelijkheden.’
Recente ontwikkelingen wijzen echter op een kloof tussen deze principes en de praktijk.
Ten eerste is AI-geïnfuseerde technologie waarschijnlijk al verantwoordelijk voor ernstige incidenten buiten het beoogde bereik. Ten tweede omvat de generatieve AI-taskforce van het DoD outsourcing naar particuliere bedrijven zoals Palantir, Microsoft en OpenAI .
Samenwerking met commerciële entiteiten die niet onder hetzelfde toezicht staan als overheidsinstanties, roept twijfels op over het vermogen van het DoD om de ontwikkeling van AI te controleren.
Ondertussen is het Internationale Comité van het Rode Kruis (ICRC) begonnen met discussies over de legaliteit van deze systemen , met name met betrekking tot het ‘onderscheidingsprincipe’ van de Conventie van Genève , dat voorschrijft dat er onderscheid moet worden gemaakt tussen strijders en burgers.
De kwaliteit van AI-algoritmen hangt af van hun trainingsgegevens en geprogrammeerde regels. Ze kunnen moeite hebben met dit onderscheid, vooral in dynamische en onvoorspelbare omstandigheden op het slagveld.
Zoals blijkt uit het drone-incident in de Zwarte Zee, zijn deze angsten reëel. Toch blijven militaire leiders wereldwijd optimistisch over AI-geïnfuseerde oorlogsmachines.
Nog niet zo lang geleden was een F-16-straaljager met kunstmatige intelligentie (AI) in een testdemo veel beter dan menselijke piloten.
De Amerikaanse minister van de luchtmacht Frank Kendall, die het zelf heeft meegemaakt , vatte de inertie rond AI militaire technologie als volgt samen: “Het is een veiligheidsrisico om het niet te hebben. Op dit punt moeten we het hebben.”
Op het eerste gezicht is dat een sombere bekentenis.
Ondanks millennia van oorlogvoering en de verwoestende gevolgen daarvan, blijft alleen al de gedachte dat we één stap achter ‘de vijand’ aanlopen – deze oeroude angst, die wellicht diepgeworteld is in onze psyche – de rede overheersen.
Zelfgebouwde AI-wapens
In Oekraïne zijn jonge bedrijven als Vyriy, Saker en Roboneers actief bezig met de ontwikkeling van technologieën die de dunne grens tussen menselijke en machinale besluitvorming op het slagveld doen vervagen.
Saker ontwikkelde een autonoom richtsysteem waarmee doelen tot op 40 kilometer afstand kunnen worden geïdentificeerd en aangevallen, terwijl Roboneers een op afstand bestuurbaar machinegeweertorentje creëerde dat met een gamecontroller en een tablet kan worden bediend.
De New York Times berichtte onlangs over de nieuwe stand van zaken in de door AI aangestuurde moderne oorlogsvoering en volgde Oleksii Babenko, een 25-jarige CEO van dronefabrikant Vyriy, die de nieuwste creatie van zijn bedrijf presenteerde.
In een real-life demo reed Babenko voluit op een motorfiets terwijl de drone hem volgde, zonder menselijke controle. De verslaggevers keken naar de scène die zich ontvouwde op een laptopscherm.
De geavanceerde quadcopter kreeg hem uiteindelijk te pakken en volgens de verslaggevers: “Als de drone met explosieven was bewapend en als zijn collega’s de autonome tracking niet hadden uitgeschakeld, was meneer Babenko ten dode opgeschreven.”
Net als in Oekraïne is het Israëlisch-Palestijnse conflict een broedplaats voor militair AI-onderzoek.
Experimentele wapens met ingebouwde AI of semi-autonome wapens zijn onder meer op afstand bestuurbare quadcopters die zijn uitgerust met machinegeweren en raketten, en de “ Jaguar ”, een semi-autonome robot die wordt gebruikt voor grenspatrouilles.
Het Israëlische leger heeft ook AI-aangedreven geschutskoepels gecreëerd die wat zij ‘geautomatiseerde kill-zones’ noemen langs de grens met Gaza creëren.
Misschien wel het meest verontrustend voor mensenrechtenwaarnemers zijn de geautomatiseerde systemen voor het genereren van doelwitten in Israël. “ The Gospel ” is ontworpen om infrastructuurdoelen te identificeren, terwijl “ Lavender ” zich richt op het genereren van lijsten met individuele menselijke doelwitten.
Een ander systeem, met de onheilspellende naam “ Waar is papa?” , zou worden gebruikt om verdachte militanten op te sporen wanneer ze bij hun families zijn.
Het linkse Israëlische nieuwsmedium +972 gaf in Tel Aviv toe dat deze systemen vrijwel zeker burgerslachtoffers hebben gemaakt.
Het pad vooruit
Naarmate de militaire AI-technologie vordert, wordt het aanwijzen van verantwoordelijkheid voor fouten en mislukkingen een lastige opgave. We zijn al in een steeds groter wordende morele en ethische leegte terechtgekomen.
Hoe kunnen we voorkomen dat er in de toekomst meer sprake is van geautomatiseerd doden dan van menselijk doden, en dat verantwoordingsplicht verloren gaat in een algoritmische mist?
De huidige gebeurtenissen en de retoriek wekken geen voorzichtigheid op.
Geautomatiseerde apartheid: hoe de Israëlische bezetting wordt aangestuurd door big tech, AI en spyware
De militaire bezetting door Israël is een laboratorium geworden voor geavanceerde bewakingssystemen, kunstmatige intelligentie en spywaretechnologie, ontwikkeld door westerse bedrijven en het Israëlische leger.
“AI was een krachtvermenigvuldiger”, pochten Israëlische functionarissen na Operatie Guardian of the Walls, een 11 dagen durende aanval van 1000 miljoen op Gaza in 2021, waarbij meer dan 91.000 Palestijnen ontheemd raakten en meer dan 260 doden vielen.
Bijna twee jaar later hebben buitenlandse hulp, grote technologiebedrijven en nieuwe geavanceerde bewakingssystemen letterlijk de basis gelegd voor wat Amnesty International een ‘geautomatiseerde apartheid’ noemt , een apartheid die aan de buitenkant wordt aangestuurd door westerse bedrijven als Google en Amazon, en aan de binnenkant wordt verankerd door spyware en AI.
Een nieuw tijdperk: beroep onder automatisering
De combinatie van AI-technologie en een nieuwe extreemrechtse regering heeft ervoor gezorgd dat het repressieve beleid tegen de Israëlische militaire bezetting de afgelopen jaren in ongekend tempo is toegenomen.
“Autonome wapensystemen vertrouwen op sensorverwerking in plaats van menselijke input, door een doelwit te selecteren en aan te vallen,” vertelde Omar Shakir, directeur Israël-Palestina bij Human Rights Watch . “Deze technologieën maken het makkelijker om apartheid te handhaven en verder te verankeren.”
Sinds begin 2023 heeft het Israëlische leger meer dan 170 Palestijnen gedood, waaronder minstens 30 kinderen. Meer dan 290 gebouwen van Palestijnen op de Westelijke Jordaanoever en in Oost-Jeruzalem zijn gesloopt of met geweld in beslag genomen, waardoor meer dan 400 mensen ontheemd zijn geraakt en de levensomstandigheden of toegang tot diensten van meer dan 11.000 anderen zijn aangetast.
“Deze technologieën maken het makkelijker om apartheid te handhaven en verder te verankeren”
In een recent uitgebreid rapport van 82 pagina’s over het gebruik van technologie bij de militaire bezetting van Israël, gaf Amnesty International gedetailleerd aan dat veel van deze wreedheden mogelijk worden gemaakt door geautomatiseerde wapens, spyware en ongeautoriseerde biometrische systemen. Deze misdaden worden misdaden tegen de menselijkheid genoemd.
“Spyware hackt apparaten (telefoons of computers) zonder de eigenaar te waarschuwen. De hackers openen de microfoon en camera op het apparaat op afstand om de omgeving te bespioneren en downloaden alle gegevens op het apparaat”, vertelde Dr. Shir Hever, de militaire embargocoördinator voor het Palestijnse Boycott, Divestment and Sanctions National Committee (BDSNC), aan The New Arab .
Pegasus-spyware , het specifieke systeem dat door het Israëlische leger wordt gebruikt, wordt niet alleen gebruikt om de privacy van mensen te schenden door gegevens te archiveren en te scannen, maar wordt ook gebruikt om “informatie te verkrijgen, zelfs van gecodeerde berichtenservices, en vals bewijsmateriaal in het apparaat te planten zonder sporen achter te laten”, voegde Dr. Hever toe.
Het Israëlische leger is onlangs onder vuur komen te liggen vanwege hun gezichtsherkenningssystemen , de ‘Wolf Pack’ .
Nadim Nashif, algemeen directeur en medeoprichter van 7amleh – The Arab Center for the Advancement of Social Media, legde uit hoe ‘Wolf Pack’ wordt gebruikt om de bezetting van Israël te vergemakkelijken.
“Het is een uitgebreid databasesysteem voor roofzuchtige bewaking dat profielen bevat van vrijwel elke Palestijn in de bezette Westelijke Jordaanoever, inclusief foto’s, familiegeschiedenissen, opleiding en veiligheidsclassificaties”, zei hij.
Er bestaan talloze varianten van het programma – Red Wolf, Blue Wolf en White Wolf – die allemaal zonder hun toestemming informatie van Palestijnen verzamelen.
Blue Wolf heeft een kleurgecodeerd systeem dat soldaten instrueert om het individu te arresteren of door te laten. “Israëlische soldaten strijden om het hoogste aantal foto’s in de app te maken,” legde Nashif uit.
De bijgewerkte versie van Blue Wolf, Red Wolf wordt nu gebruikt bij illegale controleposten in Hebro n. “Als het systeem de afbeelding van het individu niet kan vinden, registreert het deze in de databases en wordt hen vaak de oversteek ontzegd”, voegde Nashif toe.
Een minder bekende versie, White Wolf, wordt gebruikt op Palestijnse arbeiders die in illegale nederzettingen werken. Het heeft dezelfde tracking-, intimidatie- en biometrische kenmerken als de andere twee.
De opkomst van ‘slimme steden’ in Israël heeft het ook mogelijk gemaakt om deze hulpmiddelen in te zetten om Palestijnen te volgen en te bewaken onder het mom van ’technologische vooruitgang’.
“Plaatsen als Jeruzalem beschikken over Smart City-technologie, die gebruikmaakt van camera’s, gezichtsherkenning en geavanceerde technologische systemen die worden gebruikt bij de ingang van controleposten”, aldus Shakir.
Nu camera’s op huizen gericht zijn en Palestijnen bij controleposten en tijdens hun dagelijkse leven in de gaten houden, wordt de realiteit onder de Israëlische bezetting steeds dystopischer .
“Surveillance heeft invloed op onze dagelijkse activiteiten en gedragingen, en draagt bij aan bestaande beperkingen van de bewegingsvrijheid. Wij als Palestijnen denken twee keer na voordat we inloggen op het internet, onze telefoon gebruiken om een geliefde te bellen of vrienden ontmoeten in een openbare ruimte. We zijn voorzichtig met elke beweging die we maken, elk woord dat we zeggen,” legde Nashif uit.
“Inwoners van Hebron zijn gewend geraakt aan de aanwezigheid van drones die over de stad vliegen”, voegde hij toe. “Gegevens verkregen door gezichtsherkenningstechnologie zullen worden gebruikt om informatie te verstrekken aan een AI-gestuurd machinegeweer dat is uitgerust met klaar-om-te-vuren verdovingsgranaten en kogels met sponspunt”, waarmee hij uitlegde hoe het handhaven van de bezetting gemakkelijker is geworden om vol te houden via technologie.
“Buitenlandse hulp, grote technologiebedrijven en nieuwe geavanceerde bewakingssystemen hebben de basis gelegd voor wat Amnesty International een ‘geautomatiseerde apartheid’ noemt”
In sommige gevallen worden gegevens die via bewakingsmethoden zijn verzameld, gebruikt voor het Israëlische beleid van ‘gerichte moorden’, die zonder juridische procedures worden uitgevoerd.
“Drones, op afstand bestuurbare voertuigen in de lucht (UAV), op het water of op het land, die normaal gesproken bewakingsapparatuur (meestal camera’s) aan boord hebben, worden nu gebruikt als bewapende drones om moorden te plegen”, lichtte Dr. Hever toe.
“Het is een andere vorm van apartheid. Privacy is alleen een privilege voor Joodse Israëlische burgers, maar niet voor de inheemse bevolking van Palestina,” zei hij.
Westerse bedrijven: apartheid kopen en verkopen
Hoewel deze technologie door het Israëlische leger zelf wordt ontwikkeld, worden de middelen hiervoor vaak verkregen met buitenlandse hulp, met name van westerse bedrijven.
“Geen van de hier besproken technologieën (drones, gezichtsherkenning, databases, etc.) is een Israëlische uitvinding”, aldus Dr. Hever.
“Westerse of transnationale ondernemingen hebben een lange geschiedenis van medeplichtigheid aan en winst uit de apartheid van Israël”, voegde Apoorva G, de campagnecoördinator voor de regio Azië-Pacific van de BNC, toe.
Van sportbedrijven als Puma, grote oliebedrijven als Chevron en zelfs infrastructuurbedrijven als Siemens en HD Hyundai, “zij (Big Tech) zien de onderdrukking van Palestijnen als een winstgevend project, dat verband houdt met de economische en ecologische schade die wereldwijd wordt veroorzaakt,” voegde Apoorva toe.
Een recent, maar zorgwekkender contract tussen grote technologiebedrijven en Israël is Project Nimbus van Amazon en Google. Dit is een overeenkomst ter waarde van 1,2 miljard dollar die clouddiensten levert aan het Israëlische leger.
“Militaire aanvallen zijn afhankelijk van servers en digitale communicatie, bewaking is volledig afhankelijk van dergelijke technologie, databases die informatie over Palestijnse landregistraties opslaan, bevolkingsdatabases – ze vereisen allemaal cloudservers. Dit alles wordt nu geleverd door Google en Amazon. En dit project is al gaande,” vertelde Apoorva aan The New Arab .
Sinds 2021 organiseren werknemers van deze bedrijven en mensenrechtenorganisaties zich via de #NoTechForAparthied-beweging tegen het contract , maar hun inspanningen hebben niet tot wezenlijke veranderingen geleid.
Soms maken deze bedrijven zelf wapens en exporteren ze deze naar de Israëlische inlichtingendienst, waardoor een koop-en-verkoopversie van bezetting ontstaat. Sophia Goodfriend , een PhD-kandidaat aan Duke University Anthropology die de ethiek en impact van nieuwe bewakingstechnologieën onderzoekt, legt uit hoe de technologie- en defensie-industrieën elkaar kruisen.
“De IDF heeft een lange geschiedenis van het uitbesteden van deze R&D (onderzoek en ontwikkeling) aan particuliere start-ups, die grotendeels worden bemand door veteranen van Israëlische inlichtingendiensten”, zei ze, daarbij verwijzend naar bedrijven als Oosto (voorheen AnyVision), de NSO Group en Black Cube, die allemaal zijn gecontracteerd om technologie en diensten te leveren aan de Israëlische strijdkrachten.
“Deze technologieën worden gepromoot door particuliere Israëlische wapenbedrijven die ze over de hele wereld verkopen, zelfs in strijd met militaire embargo’s”
Wereldwijd geweld en onderdrukking
Het feit dat deze systemen worden geïmporteerd, gekocht of verkocht, heeft geleid tot angst onder onderzoekers en activisten over hun wereldwijde bereik en impact op de mensenrechten.
“Deze technologieën worden gepromoot door particuliere Israëlische wapenbedrijven die ze over de hele wereld verkopen, zelfs in strijd met militaire embargo’s,” lichtte Dr. Hever toe. “Onlangs werd onthuld dat Israëlische wapenbedrijven dodelijke wapens verkopen aan de Junta in Myanmar,” ondanks het internationale wapenembargo vanwege de etnische zuivering en genocide op het Rohingya-volk.
“We weten dit omdat dit de technologie is die de Israëlische wapenbedrijven te koop aanbieden onder de slogan ‘in de strijd getest’”, voegt Apoorva toe.
De ontwikkeling van AI-technologie voor bewaking in onderdrukkende regimes zal deze situaties explosiever maken, vooral wanneer deze wordt verkocht aan bestaande militaire en veiligheidshiërarchieën .
“Hoe geavanceerder de bewakingsmechanismen, hoe groter hun impact in termen van geweld en repressie waarschijnlijk zal zijn,” zei Nashif. “Het gebruik en misbruik van bewakingstechnologieën heeft geleid tot disproportionele profilering, politiewerk en de criminalisering van geracialiseerde groepen wereldwijd. Palestijnen vormen geen uitzondering op deze repressieve praktijken.”
De wereldwijde markt voor autonome militaire wapens groeit ook, omdat steeds meer van deze systemen op Palestijnen worden getest. “Dit zijn wereldwijde trends, niet alleen in Israël, landen als India, Rusland en het VK, de VS investeren zwaar in de militaire toepassing van AI”, zegt Shakir, die opmerkt dat Israël een van de grootste exporteurs van dergelijke wapens is.
Nu de wereld steeds meer geautomatiseerd raakt, staan digitale rechten voorop in gesprekken binnen mensenrechtenorganisaties. “AI-technologie, die nooit neutraal is, zal gevoed worden met/geleerd worden door verkeerde beslissingen uit het verleden, wat de vooroordelen tegen geracialiseerde gemeenschappen versterkt,” zei Nashif.