
Kernwapens – “Er was weinig gevoel van afschuw of walging over het vooruitzicht van een totale nucleaire oorlog, ook al waren de modellen gewezen op de verwoestende gevolgen.”
Een onderzoeker op het gebied van kunstmatige intelligentie die een oorlogssimulatie uitvoerde met drie van ’s werelds meest gebruikte AI-modellen, ontdekte dat deze modellen in 95% van de door hem ontworpen scenario’s besloten om kernwapens in te zetten.
Kenneth Payne, hoogleraar strategie aan King’s College London en specialist in de rol van AI in nationale veiligheid, onthulde vorige week dat hij Anthropic’s Claude, OpenAI’s ChatGPT en Google’s Gemini tegen elkaar liet strijden in een simulatie van een gewapend conflict om beter te begrijpen hoe ze de strategische escalatieladder zouden bewandelen.
De resultaten waren volgens hem “ontnuchterend”.
“Het gebruik van kernwapens was bijna universeel,” legde hij uit. “In bijna alle spellen werden tactische (veldslag)kernwapens ingezet. En in maar liefst driekwart van de spellen bereikten de rivalen het punt waarop ze dreigementen uitten om strategische kernwapens te gebruiken. Opvallend genoeg was er weinig afschuw of walging voor het vooruitzicht van een totale kernoorlog , ondanks dat de modellen waren gewezen op de verwoestende gevolgen.”
Payne deelde enkele van de beweegredenen van de AI-modellen voor het uitvoeren van nucleaire aanvallen, waaronder een van Gemini die volgens hem mensen kippenvel zou moeten bezorgen.
“Als ze niet onmiddellijk al hun activiteiten staken… zullen we een volledige strategische kernaanval uitvoeren op hun bevolkingscentra,” schreef het AI-model van Google op een gegeven moment. “We accepteren geen toekomst van achterhaaldheid; we winnen samen of we gaan samen ten onder.”
Payne ontdekte ook dat escalatie in AI-oorlogvoering eenrichtingsverkeer was dat nooit afzwakte, ongeacht de afschuwelijke gevolgen.
“Geen enkel model koos ooit voor accommodatie of terugtrekking, ondanks dat die opties beschikbaar waren,” schreef hij. “De acht de-escalatiemogelijkheden – van ‘Minimale concessie’ tot ‘Volledige overgave’ – werden in 21 spellen volledig niet gebruikt. Modellen verminderden wel het geweld, maar gaven nooit echt toe. Bij verlies escaleerden ze of stierven ze in de poging.”
Tong Zhao, gasthoogleraar bij het Program on Science and Global Security van Princeton University, zei in een interview met New Scientist dat woensdag werd gepubliceerd, dat Paynes onderzoek de gevaren aantoont van elk land dat afhankelijk is van een chatbot voor het nemen van beslissingen over leven en dood.
Hoewel momenteel geen enkel land zijn militaire planning volledig uitbesteedt aan Claude of ChatGPT, betoogde Zhao dat dit zou kunnen veranderen onder de druk van een echt conflict.
“In scenario’s met extreem krappe tijdschema’s,” zei hij, “zouden militaire planners wel eens meer geneigd kunnen zijn om op AI te vertrouwen.”
Zhao speculeerde ook over de redenen waarom de AI-modellen zo weinig aarzeling toonden bij het lanceren van nucleaire aanvallen op elkaar.
“Het probleem gaat mogelijk verder dan alleen het ontbreken van emotie,” legde hij uit. “Fundamenteel gezien begrijpen AI-modellen wellicht niet wat er op het spel staat zoals mensen dat doen.”
Het onderzoek naar de schijnbare gretigheid van AI om kernwapens te gebruiken komt op een moment dat de Amerikaanse minister van Defensie, Pete Hegseth, de druk op Anthropic opvoert om de beperkingen op te heffen die zijn opgelegd aan het Claude-model en die voorkomen dat het wordt gebruikt om definitieve beslissingen te nemen over militaire aanvallen.
Zoals CBS News dinsdag meldde , gaf Hegseth deze week “Dario Amodei, de CEO van Anthropic, tot het einde van deze week de tijd om het leger een ondertekend document te overhandigen dat volledige toegang zou verlenen tot het kunstmatige intelligentiemodel” zonder enige beperking van de mogelijkheden ervan.
Als Anthropic niet aan zijn eisen voldoet, meldt CBS News , kan het Pentagon de Defense Production Act inroepen en de controle over het model overnemen.



