AI – Terwijl experts waarschuwen voor het risico dat mensen uitsterven, gaat het Amerikaanse ministerie van Defensie op volle kracht vooruit.
Het recente drama in de directiekamer over het leiderschap van OpenAI – de in San Francisco gevestigde technische startup achter het immens populaire computerprogramma ChatGPT – werd omschreven als een machtsstrijd binnen het bedrijf, een ego-gedreven persoonlijkheidsstrijd en een strategisch geschil over het op de markt brengen van meer capabele ChatGPT-varianten.
Dat was het allemaal en nog veel meer, maar in de kern vertegenwoordigde het een ongewoon bitter gevecht tussen die managers van het bedrijf die voorstander zijn van onbeperkt onderzoek naar geavanceerde vormen van kunstmatige intelligentie (AI) en degenen die, uit angst voor de mogelijk catastrofale gevolgen van dergelijke inspanningen, het tempo van de AI-ontwikkeling willen vertragen.
Vrijwel op het moment dat deze belangrijke strijd losbarstte, ontvouwde zich een soortgelijke strijd bij de Verenigde Naties in New York en regeringskantoren in Washington D.C. over de ontwikkeling van autonome wapensystemen – droneschepen, vliegtuigen en tanks die door AI in plaats van door mensen worden gestuurd.
In deze strijd heeft een brede coalitie van diplomaten en mensenrechtenactivisten geprobeerd om een wettelijk bindend verbod op te leggen op dergelijke apparaten – door tegenstanders “killer robots” genoemd – terwijl ambtenaren van de Amerikaanse ministeries van Buitenlandse Zaken en Defensie pleitten voor hun snelle ontwikkeling.
In beide geschillen gaat het om concurrerende opvattingen over de betrouwbaarheid van geavanceerde vormen van AI, met name de “grote taalmodellen” die worden gebruikt in “generatieve AI”-systemen zoals ChatGPT. (Programma’s zoals deze worden “generatief” genoemd, omdat ze tekst of afbeeldingen van menselijke kwaliteit kunnen maken op basis van een statistische analyse van gegevens die van het internet zijn gehaald).
Degenen die voorstander zijn van de ontwikkeling en toepassing van geavanceerde AI – zowel in de particuliere sector als in het leger – beweren dat zulke systemen veilig ontwikkeld kunnen worden; degenen die hiertegen waarschuwen, zeggen dat dit niet kan, tenminste niet zonder substantiële waarborgen.
Zonder in te gaan op de details van het OpenAI-drama – dat voorlopig op 21 november werd besloten met de benoeming van nieuwe bestuursleden en de terugkeer van AI-slimmerik Sam Altman als algemeen directeur nadat hij vijf dagen eerder was ontslagen – is het duidelijk dat de crisis werd veroorzaakt door zorgen onder leden van de oorspronkelijke raad van bestuur dat Altman en zijn medewerkers te ver gingen in de richting van snelle AI-ontwikkeling, ondanks beloften om behoedzamer te werk te gaan.
Zoals Altman en veel van zijn collega’s het zien, staan menselijke technici op het punt om “algemene AI” of “superintelligentie” te creëren – AI-programma’s die zo krachtig zijn dat ze alle aspecten van de menselijke cognitie kunnen dupliceren en zichzelf kunnen programmeren, waardoor het programmeren door mensen overbodig wordt.
Dergelijke systemen, zo wordt beweerd, zullen in staat zijn om de meeste menselijke ziekten te genezen en andere heilzame wonderen te verrichten – maar ook, zo waarschuwen tegenstanders, zullen ze de meeste door de mens uitgevoerde banen elimineren en er uiteindelijk misschien voor kiezen om de mens maar helemaal te elimineren.
“Qua potentiële voor- en nadelen zal superintelligentie krachtiger zijn dan andere technologieën waar de mensheid in het verleden mee te maken heeft gehad,” schreven Altman en zijn hoogste piefen in mei. “We kunnen een spectaculair welvarender toekomst tegemoet gaan; maar we moeten de risico’s beheersen om dat te bewerkstelligen.”
Voor Altman, en voor vele anderen binnen het AI-domein, heeft dat risico een “existentiële” dimensie, die de mogelijke ineenstorting van de menselijke beschaving inhoudt – en, in het uiterste geval, het uitsterven van de mens. “Ik denk dat als deze technologie fout gaat, het behoorlijk fout kan gaan,” vertelde hij tijdens een hoorzitting in de Senaat op 16 mei. Altman ondertekende ook een open brief die op 30 mei door het Center for AI Safety werd vrijgegeven en waarin gewaarschuwd wordt voor het mogelijke “risico van uitsterven door AI.”
Het beperken van dat risico, aldus de brief, “zou een wereldwijde prioriteit moeten zijn, naast andere risico’s op maatschappelijke schaal zoals pandemieën en kernoorlogen.”
Niettemin geloven Altman en andere hooggeplaatste personen op het gebied van AI dat superintelligentie kan en moet worden nagestreefd, zolang er maar voldoende voorzorgsmaatregelen worden genomen. “We geloven dat de voordelen van de hulpmiddelen die we tot nu toe hebben ingezet ruimschoots opwegen tegen de risico’s, maar het waarborgen van hun veiligheid is van vitaal belang voor ons werk,” vertelde hij de Senaatsubcommissie voor privacy, technologie en de wet.
Washington pleit voor “verantwoord” gebruik van AI in oorlogsvoering
Een soortgelijke afweging met betrekking tot het gebruik van geavanceerde AI heerst in de ogen van hoge ambtenaren op de Amerikaanse ministeries van Buitenlandse Zaken en Defensie, die stellen dat kunstmatige intelligentie kan en moet worden gebruikt om toekomstige wapensystemen te bedienen – zolang het maar op een “verantwoorde” manier gebeurt.
“We kunnen niet voorspellen hoe AI-technologieën zich zullen ontwikkelen of waartoe ze over een jaar of vijf jaar in staat zullen zijn,” verklaarde ambassadeur Bonnie Jenkins, onderminister van wapenbeheersing en non-proliferatie, tijdens een presentatie bij de VN op 13 november. Desalniettemin, merkte ze op, zijn de Verenigde Staten vastbesloten om “het noodzakelijke beleid in te voeren en de technische capaciteiten op te bouwen om een verantwoorde ontwikkeling en gebruik [van AI door het leger] mogelijk te maken, ongeacht de technologische vooruitgang.”
Jenkins was die dag bij de VN om een “Politieke verklaring over verantwoord militair gebruik van kunstmatige intelligentie en autonomie” te onthullen, een door de VS geïnspireerde oproep voor vrijwillige beperkingen op de ontwikkeling en inzet van AI-gestuurde autonome wapens.
De verklaring stelt onder andere dat “staten ervoor moeten zorgen dat de veiligheid, beveiliging en effectiviteit van militaire AI-capaciteiten op passende en rigoureuze wijze worden getest” en dat “staten passende waarborgen moeten implementeren om de risico’s van storingen in militaire AI-capaciteiten te beperken, zoals de mogelijkheid om … ingezette systemen te deactiveren wanneer deze systemen onbedoeld gedrag vertonen.”
Niets van dit alles vormt echter een juridisch bindende verplichting voor staten die de verklaring ondertekenen; in plaats daarvan houdt het slechts een belofte in om zich te houden aan een aantal optimale praktijken, zonder het vereiste om naleving van deze maatregelen aan te tonen of het risico op bestraffing als deze niet worden nageleefd.
Hoewel enkele tientallen landen – meestal nauwe bondgenoten van de Verenigde Staten – de verklaring hebben ondertekend, dringen veel andere landen, waaronder Oostenrijk, Brazilië, Chili, Mexico, Nieuw-Zeeland en Spanje, erop aan dat vrijwillige naleving van een reeks door de VS ontworpen standaarden onvoldoende bescherming biedt tegen de gevaren van de inzet van AI-gestuurde wapens.
In plaats daarvan streven zij naar een juridisch bindend instrument dat strikte grenzen stelt aan het gebruik van dergelijke systemen of ze helemaal verbiedt. Voor deze actoren is het risico dat zulke wapens “op hol slaan” en ongeoorloofde aanvallen uitvoeren op burgers simpelweg te groot om het gebruik ervan in gevechtssituaties toe te staan.
“De mensheid staat op het punt een belangrijke drempel te overschrijden wanneer de beslissing over leven en dood niet langer door mensen wordt genomen, maar op basis van voorgeprogrammeerde algoritmen. Dit werpt fundamentele ethische vragen op,” vertelde Alexander Kmentt, Oostenrijks hoofdonderhandelaar voor ontwapening, wapenbeheersing en non-proliferatie, aan The Nation.
Oostenrijk en een groot aantal Latijns-Amerikaanse landen proberen al jaren een verbod op dit soort wapens te bewerkstelligen onder het Verdrag inzake bepaalde conventionele wapens (CCW), een VN-verdrag uit 1980 dat gericht is op het beperken of verbieden van wapens die worden beschouwd als wapens die onnodig lijden veroorzaken aan strijders of die burgers willekeurig treffen.
Deze landen, samen met het Internationale Comité van het Rode Kruis en andere non-gouvernementele organisaties, beweren dat volledig autonome wapens onder deze categorie vallen omdat ze niet in staat zullen blijken om in het heetst van de strijd onderscheid te maken tussen strijders en burgers, zoals vereist door de internationale wetgeving.
Hoewel een meerderheid van de partijen bij de CCW deze mening lijkt te delen en voorstander is van strenge controles op autonome wapens, worden beslissingen door ondertekenende staten genomen op basis van consensus terwijl een handjevol landen, waaronder Israël, Rusland en de Verenigde Staten, hun vetorecht hebben gebruikt om de invoering van dergelijke maatregelen te blokkeren.
Dit heeft ertoe geleid dat voorstanders van regulering zich richten tot de Algemene Vergadering van de VN – waar beslissingen worden genomen bij meerderheid van stemmen in plaats van consensus – als platform voor toekomstige vooruitgang in deze kwestie.
Op 12 oktober heeft de Eerste Commissie van de Algemene Vergadering – verantwoordelijk voor vrede, internationale veiligheid en ontwapening – zich voor het eerst gebogen over de gevaren van autonome wapens en met een grote meerderheid – 164 tegen 5 (bij 8 onthoudingen) – de secretaris-generaal opgedragen om uitgebreid onderzoek naar deze kwestie te doen.
Het onderzoek, dat op tijd klaar moet zijn voor de volgende zitting van de Algemene Vergadering (in het najaar van 2024), moet de “knelpunten en zorgen” onderzoeken die dergelijke wapens opwerpen “vanuit humanitair, juridisch, veiligheids-, technologisch en ethisch oogpunt en over de rol van de mens bij het gebruik van geweld.”
Hoewel de VN-maatregel geen bindende beperkingen oplegt aan de ontwikkeling of het gebruik van autonome wapensystemen, legt het de basis voor de toekomstige goedkeuring van dergelijke maatregelen door een reeks zorgen over de inzet ervan te identificeren en door erop aan te dringen dat de secretaris-generaal, wanneer hij het vereiste rapport opstelt, deze gevaren in detail onderzoekt, onder meer door de standpunten en expertise van wetenschappers en maatschappelijke organisaties in te winnen.
“Het doel is natuurlijk om vooruitgang te boeken bij het reguleren van autonome wapensystemen,” gaf ambassadeur Kmentt aan. “De resolutie maakt duidelijk dat de overgrote meerderheid van de staten deze kwestie met spoed wil aanpakken.”
Wat er volgend jaar tijdens de bijeenkomst van de Algemene Vergadering zal gebeuren, valt niet te voorspellen, maar als Kmentt gelijk heeft, kunnen we een veel levendiger internationaal debat verwachten over de wenselijkheid van het toestaan van de inzet van AI-gestuurde wapensystemen – of de deelnemers nu wel of niet hebben ingestemd met de vrijwillige maatregelen die door de Verenigde Staten worden voorgestaan.
Het Pentagon gaat op volle kracht vooruit
Voor ambtenaren van het ministerie van Defensie is de zaak echter grotendeels beklonken: de Verenigde Staten zullen doorgaan met de snelle ontwikkeling en inzet van talloze soorten AI-gestuurde autonome wapensystemen. Dit werd op 28 augustus duidelijk met de aankondiging van het “Replicator”-initiatief door staatssecretaris van Defensie Kathleen Hicks.
Hicks merkte op dat de Verenigde Staten zich moeten voorbereiden op een mogelijke oorlog met het Chinese leger, het Volksbevrijdingsleger (PLA), in de niet al te verre toekomst, en dat de Amerikaanse strijdkrachten de wapeninventarissen van het PLA niet kunnen evenaren op een item-per-item basis (tank-voor-tank, schip-voor-schip, etc.), en stelde dat de VS voorbereid moeten zijn om China’s superioriteit in conventionele krachtmetingen – zijn militaire “massa” – te overtreffen door de inzet van “vele duizenden” autonome wapens.
“Om voorop te blijven lopen, gaan we een nieuwe stand van de techniek creëren – net zoals Amerika dat eerder heeft gedaan – door gebruik te maken van afschrijfbare [d.w.z. wegwerp] autonome systemen binnen alle domeinen,” vertelde ze bestuurders van bedrijven op een bijeenkomst van de National Defense Industrial Association in Washington. “We zullen de massa van de PLA bestrijden met onze eigen massa, maar die van ons zal moeilijker te voorspellen, moeilijker te raken en moeilijker te verslaan zijn.”
In een volgende toespraak, die op 6 september werd gehouden, gaf Hicks (iets) meer details over wat zij beschreef als afschrijfbare autonome wapensystemen die alle domeinen beslaan (ADA2). “Stel je gedistribueerde pods voor van zelfrijdende ADA2-systemen op zee… vol met sensoren in overvloed…. Stel je vloten voor van op de grond gestationeerde ADA2-systemen die nieuwe logistieke ondersteuning leveren, voorwaarts verkennend om troepen veilig te houden…. Stel je zwermen ADA2-systemen [vanuit de lucht] voor, vliegend op allerlei hoogtes, die een reeks missies uitvoeren, voortbouwend op wat we in Oekraïne hebben gezien.”
Volgens de officiële richtlijnen verzekerde Hicks haar publiek dat al deze systemen “zullen worden ontwikkeld en ingezet conform onze verantwoordelijke en ethische benadering van AI en autonome systemen.” Maar behalve die knipoog naar veiligheid, lag alle nadruk in haar toespraken op het wegnemen van bureaucratische knelpunten om de ontwikkeling en inzet van autonome wapens te versnellen.
“Als [deze knelpunten] niet worden aangepakt,”verklaarde ze op 28 augustus, “zullen onze versnellingen nog steeds te langzaam verlopen en zullen onze innovatiemotoren nog steeds niet draaien op de snelheid en schaal die we nodig hebben. En dat kunnen we niet toestaan.”
En dus hebben de machthebbers – in zowel Silicon Valley als Washington – de beslissing genomen om door te gaan met de ontwikkeling en het gebruik van nog meer geavanceerde versies van kunstmatige intelligentie, ondanks waarschuwingen van wetenschappers en diplomaten dat de veiligheid van deze programma’s niet kan worden gegarandeerd en dat misbruik ervan catastrofale gevolgen kan hebben. Als er geen grotere inspanning wordt gedaan om deze activiteiten af te remmen, zouden we wel eens aan den lijve kunnen ondervinden wat die gevolgen zouden kunnen inhouden.