Oorlogsvoering wordt steeds meer gedigitaliseerd en geautomatiseerd. Dit verandert ook de rol van burgers binnen de Conventies van Genève. Om deze ontwikkeling tegen te gaan, hebben we dringend nieuwe internationale overeenkomsten nodig.
Oorlogsvoering De technologieën van de zogenaamde kunstmatige intelligentie (AI) hebben de afgelopen 18 maanden een snelle opleving en snelle groei doorgemaakt in de commerciële sector – bijvoorbeeld met de introductie van ChatGPT. Onlangs meldden verschillende nieuwsmedia dat Israël AI gebruikt in het conflict in Gaza, iets wat het Israëlische leger heftig ontkent. Er bestaat echter weinig twijfel over dat nieuwe technologieën binnenkort op het slagveld zullen worden gebruikt.
Bij oorlogsvoering worden computers en geautomatiseerde processen gebruikt in veel geavanceerdere systemen, zoals geautomatiseerde wapens en onbemande voertuigen die autonome beslissingen kunnen nemen in het strijdtoneel. Andere voorbeelden zijn technologieën die snellere besluitvorming mogelijk maken doordat ze worden opgenomen in de gevechtsplanning of door de snelle onderschepping van vijandelijke radioberichten mogelijk te maken.
In het zakenleven is veel aandacht gevestigd op de verstoringen, discriminatie en het potentiële banenverlies als gevolg van het gebruik van AI en geautomatiseerde technologieën. De eerste prioriteit zou echter de discussie moeten zijn over welke impact het gebruik van deze oplossingen heeft op oorlogsvoering: geautomatiseerde besluitvorming of geautomatiseerde wapens automatiseren niet alleen de oorlog zelf, maar ze kunnen ook de rol van burgers binnen de Geneefse Conventies veranderen en verplaatsen.
De digitalisering van oorlogsvoering
In de Verenigde Staten is het niet ongebruikelijk dat er nauwe banden bestaan tussen de technologie-industrie en het leger. Een prominent voorbeeld is Eric Schmidt, voormalig CEO van Google, die ook als consultant voor de Amerikaanse strijdkrachten werkte als voorzitter van de Advisory Committee for the Department of Defense en de National Security Commission on Artificial Intelligence. In zijn recente stuk voor Buitenlandse Zaken riep hij op tot “oorlogvoering met de snelheid van computers, niet met de snelheid van mensen.”
Door AI te vergelijken met de conquistadores die het Inca-rijk versloegen, wil Schmidt ervoor zorgen dat de VS in staat zijn tot volledig geautomatiseerde oorlogsvoering. In dit soort oorlogsvoering zullen “autonome drones die geschikt zijn voor wapens – dat wil zeggen niet alleen onbemande luchtvaartuigen, maar ook landvoertuigen – soldaten en bemande artillerie volledig vervangen.”
De autonome land- en luchtvoertuigen die Schmidt door de VS wil laten ontwikkelen bevinden zich nog in de experimentele fase. Maar er wordt al aan gewerkt om militaire voertuigen, waaronder straaljagers en onderzeeërs , naast zwermen autonome drones te laten opereren, terwijl AI de acties coördineert.
Hoewel veel hiervan misschien vergezocht lijkt, zijn geautomatiseerde beslissingen in het leger geavanceerder dan op andere gebieden: Project Maven werd in 2017 gefinancierd door de VS, terwijl gezamenlijke projecten zoals AUKUS door Australië, de VS en het VK actief zijn ingezet in ontwikkeling gedurende meerdere jaren geautomatiseerde en robotachtige wapensystemen.
De systemen helpen al bij het detecteren en classificeren van relevante signalen, zodat ze indien nodig kunnen worden geblokkeerd of onderschept. AI kan de trajecten van ballistische raketten vooraf berekenen om ze vervolgens preventief te onderscheppen of om te leiden.
Kunstmatige intelligentie kan ook de gecodeerde communicatie van vijandelijke troepen ontsleutelen en automatisch vertalen. Rusland en China werken actief aan de ontwikkeling van dergelijke geautomatiseerde systemen. Dit is een van de redenen waarom de VS en de EU zoveel nadruk hebben gelegd op het ontwikkelen van vergelijkbare oplossingen in de context van de NAVO.
Impact op de Conventies van Genève
Het automatiseren van systemen en wapens in oorlog lijkt in eerste instantie misschien een goed idee. In principe is het mogelijk oorlog te voeren en tegelijkertijd minder jongeren in de vuurlinie te plaatsen. Echter, verborgen in de verklaring van het Israëlische leger dat het geen AI gebruikt om zich op mensen te richten, zat een kleine zin die ons aan het denken zou moeten zetten:
“…een persoon die direct deelneemt aan vijandelijkheden zal als een legitiem doelwit worden beschouwd.”
Een cruciale vraag voor de wereld nu deze het nieuwe tijdperk van AI-aangedreven en AI-gecontroleerde oorlogvoering betreedt, is welke impact dit zal hebben op de Conventies van Genève en de rol van burgers in oorlog. AI heeft het potentieel om beide dramatisch te veranderen.
De Conventies van Genève en hun aanvullende protocollen vormen de kern van het internationaal humanitair recht en reguleren het verloop van gewapende conflicten. Ze hebben tot doel de gevolgen van oorlog te beperken door mensen te beschermen die niet deelnemen aan de vijandelijkheden, maar ook degenen die niet langer deel uitmaken van de vijandelijkheden. Elke nieuwe generatie technologie roept problemen op bij de toepassing van de Conventies van Genève, die kort na de Tweede Wereldoorlog werden opgesteld als reactie op de verschrikkingen van die oorlog.
De meeste van de vorige generaties technologie vallen echter nog steeds binnen het domein van de traditionele oorlogsvoering. Geautomatiseerde gegevensverzameling en inlichtingenanalyse dreigen echter het begrip te veranderen van “wie direct betrokken is bij vijandelijkheden” .
De basis van deze verschuiving ligt in de constructie van dergelijke geautomatiseerde systemen. Ongeacht hoe ze worden gebruikt, vereisen zogenaamde AI-toepassingen aanzienlijke hoeveelheden gegevens die snel genoeg moeten worden verwerkt om in gevechten te kunnen worden gebruikt. Militaire AI moet miljoenen input analyseren om zinvolle aanbevelingen te doen in de strijd.
Wie is er nog meer een burger?
De risico’s die verbonden zijn aan het gebruik van AI in oorlogsvoering worden echter zelden publiekelijk besproken. De digitalisering van oorlogsvoering heeft een uitdaging gecreëerd voor zowel het militaire als het internationale humanitaire recht, omdat de rol van burgers in oorlogsvoering in sommige gevallen steeds vager wordt.
Een voorbeeld hiervan is het gebruik van cryptocurrencies om donaties van meer dan $225 miljoen te verzamelen voor de oorlogsinspanningen in Oekraïne , bijvoorbeeld voor wapens, munitie en medische apparatuur, evenals ander oorlogskritisch materiaal. Ter vergelijking: een Tsjechische crowdfundingcampagne heeft 1,3 miljoen dollar opgehaald om een tank voor de Oekraïense strijdkrachten te kopen. In andere oorlogsgebieden hebben burgers hun computers beschikbaar gesteld voor AI-gecoördineerde DDoS-aanvallen (Distributed Denial of Service) of zijn ze gehackt en voor deze activiteiten gebruikt door computervirussen.
Digitale technologieën stellen daarom enkele veronderstellingen ter discussie over wie een burger in oorlog is. Dit roept ook interessante en moeilijke vragen op over wie telt als actieve deelnemers aan oorlogvoering. Met behulp van smartphone-apps kunnen burgers zelf een belangrijke input worden voor de oorlogsinspanningen.
Het risico bestaat dat er steeds meer slachtoffers vallen
Geautomatiseerde datasets zijn afhankelijk van actuele informatie om aanbevelingen te doen aan militaire besluitvormers. Als deze gegevens afkomstig zijn van civiele smartphones, kunnen deze mensen worden beschouwd als actieve deelnemers aan de oorlog.
Als iemands laptop of computer wordt gebruikt voor DDoS-aanvallen, is het iets moeilijker te bewijzen dat iemand bereidwillig deelneemt aan vijandelijkheden. Het actief werven van fondsen – hetzij via cryptocurrencies, hetzij via crowdfundingplatforms – wordt echter gemakkelijker geïnterpreteerd als actieve deelname aan de oorlogsinspanningen.
Digitale technologieën hebben individuen over de hele wereld in staat gesteld geld in te zamelen en een rol op zich te nemen die voorheen was voorbehouden aan nationale overheden: het leveren van oorlogswapens.
Bovendien bestaat er bij het verwerven van datasets uit meerdere bronnen een groter risico dat databronnen worden geïnfecteerd met digitale virussen of dat er valse gegevens worden ingevoerd om de oorlogsinspanningen te belemmeren. Dit maakt scenario’s mogelijk waarin de AI acties aanbeveelt die de oorlogsvoering verergeren of tot overhaaste beslissingen leiden zonder te wachten op de reactie van de vijand. In plaats van het aantal slachtoffers te verminderen, kan geautomatiseerde besluitvorming het aantal slachtoffers onbedoeld dramatisch vergroten.
Hoe AI verschilt van kernbommen
Tijdens de Koude Oorlog waren er talloze bijna-ongelukken met wapens, die deels werden voorkomen door de toenmalige traagheid van de communicatie, maar vooral door de rol van mensen bij het afvuren van raketten. Misschien wel het bekendste incident vond plaats in 1983, toen een computersysteem ten onrechte rapporteerde dat de Verenigde Staten zes kernraketten richting Rusland hadden gelanceerd. De officier van dienst, Stanislav Petrov, besloot dat het systeem gebrekkig was en redde, door opzettelijk bevelen te negeren, de wereld van een totale nucleaire oorlog die snel zou zijn uitgelokt door vergelding door de VS en de NAVO als Petrov het protocol had gevolgd.
Veel mensen hebben AI vergeleken met atoombommen. Deze technologieën verschillen echter fundamenteel van kernwapens. Wanneer kernwapens werden gebruikt, bleef de menselijke autonomie behouden. Van begin tot eind waren mensen betrokken bij elke stap van het analyseren, interpreteren en reageren op de gegevens die hen door de verschillende computersystemen voor nucleaire oorlogen werden gepresenteerd.
Veel voorstanders en ontwikkelaars van automatisering in oorlogsvoering promoten het idee van de ‘human-in-the-loop’-benadering. Een getrainde beslisser wordt op bepaalde punten betrokken bij de AI-processen om ervoor te zorgen dat een mens de beslissingen neemt en niet de algoritmen zelf. Dit is bedoeld om ervoor te zorgen dat de menselijke ethiek en moraal worden opgenomen in de besluitvormingsprocessen en dus naleving van het internationaal humanitair recht is gegarandeerd.
Autonomie en controle
De cruciale vraag hier is echter die van de autonomie. Met geautomatiseerde systemen verliezen mensen steeds meer de autonomie om in de loop van de tijd beslissingen te nemen over datasets. Hoe meer gegevens worden gebruikt om modellen te maken en te verfijnen, en hoe vaker deze modellen worden gebruikt om algoritmen te verbeteren, hoe minder kennis een mens over dit proces kan hebben. Het is daarom de vraag in hoeverre een mens op geloofwaardige wijze autonomie of controle kan claimen over de beslissingen die door de AI worden genomen.
Het enorme volume aan gegevensbronnen dat wordt gecombineerd en geëvalueerd, onderscheidt AI fundamenteel van eerdere generaties digitale oorlogsvoering. De ‘human-in-the-loop’-oplossing is daarom geen echt antwoord op de vraag onder welke omstandigheden burgers kunnen worden gedefinieerd als actieve deelnemers aan de oorlogsinspanning.
We hebben nieuwe oplossingen en nieuwe internationale overeenkomsten nodig die zich niet alleen richten op het gebruik van nieuwe oorlogswapens, maar ook op de manier waarop databronnen voor deze wapens kunnen worden gebruikt. Wat deelnemers aan digitaal mogelijk gemaakte oorlogvoering karakteriseert, moet duidelijk worden gedefinieerd, zodat regeringen, legers en burgers in oorlogsgebieden weloverwogen beslissingen kunnen nemen.
Tenzij er nu passende actie wordt ondernomen, zal het opnieuw neerkomen op mensen die dapper genoeg zijn om bevelen volledig te negeren om ernstige, volledig automatische gevolgen te voorkomen.
Cathy Mulligan is een expert in digitale technologieën en de digitale economie. Momenteel is ze Richard von Weizsäcker Fellow bij de Robert Bosch Foundation in Berlijn.