AI – Na de snelle, diepgaande vooruitgang op het gebied van kunstmatige intelligentie overwegen regeringen over de hele wereld hoe ze de sector het beste kunnen reguleren, en er ontstaan al uiteenlopende benaderingen. Bij gebrek aan één universeel model zal het bestuur van deze wereldveranderende technologie ongetwijfeld ter discussie staan.
NEW YORK – In november zal Groot-Brittannië gastheer zijn van een spraakmakende internationale AI top over het bestuur van kunstmatige intelligentie. Nu de agenda en de lijst met genodigden nog steeds niet definitief zijn afgerond, is de grootste beslissing waar Britse functionarissen voor staan de vraag of ze China zullen uitnodigen of een meer exclusieve bijeenkomst zullen organiseren voor de G7 en andere landen die de liberale democratie willen beschermen als fundament voor een digitale samenleving.
e afweging is duidelijk. Elke mondiale benadering van AI-beheer die China uitsluit zal waarschijnlijk slechts een beperkte impact hebben; maar de aanwezigheid van China zou onvermijdelijk de agenda veranderen. De top zou niet langer in staat zijn het probleem aan te pakken van het gebruik van AI door regeringen voor binnenlands toezicht – of enige andere controversiële kwestie die van belang is voor democratische regeringen.
Wat de agenda ook is, de top is een voorzichtig antwoord op de snelle en dramatische vooruitgang op het gebied van AI, die zowel ongekende kansen als uitdagingen voor regeringen met zich meebrengt. Wereldleiders willen graag een technologische revolutie niet missen die – idealiter – hen zou kunnen helpen hun economieën uit te breiden en mondiale uitdagingen aan te pakken.
AI heeft ongetwijfeld het potentieel om de productiviteit van individuen te verbeteren en sociale vooruitgang te stimuleren. Het zou kunnen leiden tot belangrijke vooruitgang op het gebied van onderwijs, geneeskunde, landbouw en vele andere gebieden die van cruciaal belang zijn voor de menselijke ontwikkeling. Het zal ook een bron van geopolitieke en militaire macht zijn, die een aanzienlijk strategisch voordeel zal opleveren voor landen die een voorsprong verwerven in de ontwikkeling ervan.
Maar AI brengt ook maatschappelijke uitdagingen en risico’s met zich mee – vandaar het groeiende koor dat eist dat regeringen ingrijpen en het reguleren. Er wordt onder meer verwacht dat AI de arbeidsmarkt zal transformeren op een manier die veel werknemers overbodig zal maken en sommige veel productiever zal maken, waardoor de bestaande ongelijkheid zal toenemen en de sociale cohesie zal worden uitgehold. Het zal ook worden bewapend door slechte actoren om fraude te plegen, mensen te misleiden en desinformatie te verspreiden.
Bij gebruik in de context van verkiezingen zou AI de politieke autonomie van burgers in gevaar kunnen brengen en de democratie kunnen ondermijnen. En als krachtig instrument voor surveillancedoeleinden dreigt het de fundamentele rechten en burgerlijke vrijheden van individuen te ondermijnen.
Hoewel het vrijwel zeker is dat de bovengenoemde risico’s zich zullen voordoen, zijn andere risicovoller en toch potentieel catastrofaal. Met name waarschuwen sommige commentatoren dat AI uit de hand zou kunnen lopen en een existentiële bedreiging voor de mensheid zou kunnen vormen.
GEEN MODEL OM ZE ALLEMAAL TE REGEREN
Met het oog op het benutten van de ongekende kansen van AI en het beheersen van de potentieel ernstige risico’s ervan, ontstaan er uiteenlopende benaderingen om de sector te reguleren. De Verenigde Staten aarzelen om zich te bemoeien met de ontwikkeling van een ontwrichtende technologie die van cruciaal belang is in de economische, geopolitieke en militaire concurrentie met China en vertrouwen op vrijwillige begeleiding en zelfregulering door technologiebedrijven.
De Europese Unie is er daarentegen vast van overtuigd dat het bestuur van AI niet aan technologiebedrijven mag worden overgelaten; in plaats daarvan moet de digitale regulering gebaseerd zijn op de rechtsstaat en onderworpen zijn aan democratisch toezicht. Als aanvulling op haar bestaande verzameling digitale regelgeving bevindt de EU zich in de laatste fase van het aannemen van een alomvattende, bindende AI-regelgeving die zich richt op de bescherming van de fundamentele rechten van individuen, inclusief hun recht op privacy en non-discriminatie.
China streeft ook ambitieuze AI-regulering na, maar met autoritaire kenmerken. De autoriteiten proberen de ontwikkeling van AI te ondersteunen zonder de censuur te ondermijnen en het monopolie op de politieke macht van de Communistische Partij van China in gevaar te brengen. Maar dit impliceert een afweging, want om de sociale stabiliteit te behouden moet de CPC de inhoud beperken die kan worden gebruikt om de grote taalmodellen achter generatieve AI te trainen.
De VS, de EU en China bieden dus concurrerende modellen van AI-regulering. Als ’s werelds leidende technologische, economische en regelgevende machten zijn het ‘ digitale imperiums ‘: elk imperium reguleert niet alleen zijn binnenlandse markten, maar exporteert ook zijn regelgevingsmodel en streeft ernaar de mondiale digitale orde in zijn eigen belang vorm te geven.
Sommige regeringen stemmen hun regelgevingsstandpunt wellicht af op de Amerikaanse marktgestuurde aanpak en kiezen voor lichte regelgeving; anderen kiezen misschien de kant van de op rechten gebaseerde aanpak van de EU en streven naar bindende wetgeving die beperkingen oplegt aan de ontwikkeling van AI; en sommige autoritaire landen zullen naar China kijken en het op de staat gerichte regelgevingsmodel nabootsen.
De meeste landen zullen echter waarschijnlijk over de drie benaderingen heen gaan en selectief elementen van elke benadering overnemen. Dat betekent dat er geen enkele blauwdruk voor AI-governance wereldwijd zal ontstaan.
HET PLEIDOOI VOOR SAMENWERKING
Hoewel verschillen in regelgeving onvermijdelijk lijken, is er een duidelijke behoefte aan internationale coördinatie, omdat AI uitdagingen met zich meebrengt die geen enkele overheid alleen aankan. Een betere afstemming van de regelgevingsbenaderingen zou alle regeringen helpen de potentiële voordelen van de technologie te maximaliseren en de neerwaartse risico’s te minimaliseren.
Als elke overheid haar eigen regelgevingskader ontwikkelt, zal de daaruit voortvloeiende fragmentatie de ontwikkeling van AI belemmeren. Het navigeren door conflicterende regelgevingsregimes verhoogt immers de kosten van bedrijven, leidt tot onzekerheid en ondermijnt de verwachte winsten. Consistente en voorspelbare normen op alle markten zullen innovatie bevorderen, AI-ontwikkelaars belonen en consumenten ten goede komen.
Bovendien zou een internationale overeenkomst ertoe kunnen bijdragen dat deze verwachte winsten gelijkmatiger over de landen worden verdeeld. De ontwikkeling van AI is momenteel geconcentreerd in een handvol (grotendeels) ontwikkelde economieën die op het punt staan naar voren te komen als de duidelijke winnaars in de mondiale AI-race. Tegelijkertijd is het vermogen van de meeste andere landen om van AI te profiteren beperkt. Internationale samenwerking is nodig om de toegang te democratiseren en de angst weg te nemen dat AI slechts een deel van de rijke landen ten goede zal komen en het Zuiden verder achter zich zal laten.
Internationale coördinatie kan regeringen ook helpen grensoverschrijdende risico’s te beheersen en een race naar de bodem te voorkomen. Zonder een dergelijke coördinatie zullen sommige actoren de lacunes in de regelgeving op sommige markten uitbuiten, waardoor de voordelen van goed ontworpen vangrails elders teniet worden gedaan. Om regelgevingsarbitrage te voorkomen zouden landen met betere regelgevingscapaciteiten technische bijstand moeten bieden aan landen die deze capaciteit niet hebben.
In de praktijk zou dit neerkomen op het bundelen van middelen om AI-gerelateerde risico’s te identificeren en te evalueren, het verspreiden van technische kennis over die risico’s en het helpen van landen bij het ontwikkelen van regelgevende reacties daarop.
Misschien wel het allerbelangrijkste is dat internationale samenwerking de kostbare en gevaarlijke AI-wapenwedloop kan beteugelen voordat deze de wereldorde destabiliseert of een militair conflict uitlokt. Zonder een gezamenlijke overeenkomst waarin regels worden vastgelegd voor tweeledige (civiele en militaire) AI, zal geen enkel land het risico kunnen lopen zijn eigen militair aangestuurde ontwikkeling in te perken, uit angst dat het een strategisch voordeel aan zijn tegenstanders afstaat.
Gezien de duidelijke voordelen van internationale coördinatie zijn er al verschillende pogingen gaande om mondiale normen of samenwerkingsmethoden te ontwikkelen binnen instellingen als de OESO, de G20, de G7, de Raad van Europa en de Verenigde Naties.
Toch is het redelijk om bezorgd te zijn dat deze inspanningen slechts een beperkte impact zullen hebben. Gezien de verschillen in waarden, belangen en capaciteiten tussen staten zal het moeilijk zijn om enige betekenisvolle consensus te bereiken. Om dezelfde reden zal de komende Britse top hoogstwaarschijnlijk alleen maar verheven verklaringen opleveren, vage beginselen op hoog niveau onderschrijven en zich ertoe verbinden de dialoog voort te zetten.
HET REGELGEVINGSDEBAT
Niet iedereen juicht het toe dat regeringen slagen in hun regelgevende inspanningen. Sommige waarnemers maken er bezwaar tegen dat regeringen zelfs maar proberen een dergelijke snel evoluerende technologie te reguleren.
Deze critici voeren doorgaans twee argumenten aan. De eerste is dat AI te complex en snel evolueert voor wetgevers om te begrijpen en bij te houden. Het tweede argument houdt in dat zelfs als wetgevers bevoegd zouden zijn om AI te reguleren, zij waarschijnlijk de kant zouden kiezen van buitensporige voorzorgsmaatregelen – te veel zouden doen – waardoor de innovatie zou worden beknot en de voordelen van AI zouden worden ondermijnd. Als ze juist zijn, zouden beide zorgen aanleiding kunnen geven aan regeringen om het ‘doe geen schade’-principe te volgen, terughoudendheid te betrachten en de AI-revolutie zijn eigen gang te laten gaan.
Het argument dat wetgevers niet in staat zijn zo’n complexe, veelzijdige en snel evoluerende technologie te begrijpen is makkelijk te maken, maar blijft niet overtuigend. Beleidsmakers reguleren veel domeinen van de economische activiteit zonder zelf experts te zijn.
Er zijn maar weinig toezichthouders die weten hoe ze vliegtuigen moeten bouwen, maar toch oefenen ze een onomstreden gezag uit op het gebied van de luchtvaartveiligheid. Regeringen reguleren ook medicijnen en vaccins, ook al zijn er maar heel weinig (of helemaal geen) wetgevers die experts op het gebied van de biotechnologie zijn. Als alleen experts de macht hadden om te reguleren, zou elke industrie zichzelf reguleren.
Ook al gaat de uitdaging van AI-governance deels over de technologie, het gaat ook over het begrijpen hoe die technologie de fundamentele rechten en de democratie beïnvloedt. Dit is bepaald geen domein waar technologiebedrijven aanspraak kunnen maken op expertise.
Denk aan een bedrijf als Meta (Facebook). Zijn staat van dienst op het gebied van contentmoderatie en gegevensprivacy suggereert dat het een van de minst gekwalificeerde entiteiten ter wereld is om de democratie of fundamentele rechten te beschermen – net als de meeste andere toonaangevende technologiebedrijven. Gezien de inzet moet de overheid, en niet de ontwikkelaars, het voortouw nemen bij het besturen van AI.
Dit wil niet zeggen dat regeringen altijd de juiste regelgeving zullen hanteren, of dat regelgeving bedrijven er niet toe zal dwingen middelen te verleggen van onderzoek en ontwikkeling naar compliance. Als regelgeving echter correct wordt geïmplementeerd, kan dit bedrijven aanmoedigen om te investeren in meer ethische en minder foutgevoelige toepassingen, waardoor de sector in de richting van robuustere AI-systemen wordt gestuurd. Dit zou het consumentenvertrouwen in de technologie vergroten, waardoor de marktkansen voor AI-bedrijven groter zouden worden – in plaats van kleiner.
Overheden hebben alle prikkels om niet af te zien van de voordelen die aan AI verbonden zijn. Ze hebben dringend behoefte aan nieuwe bronnen van economische groei en innovaties die hen zullen helpen betere resultaten te bereiken, zoals beter onderwijs en gezondheidszorg, tegen lagere kosten. Ze zullen eerder te weinig doen, uit angst een strategisch voordeel te verliezen en potentiële voordelen mis te lopen.
De sleutel tot het reguleren van snel evoluerende, veelzijdige technologie is nauw samenwerken met AI-ontwikkelaars om ervoor te zorgen dat de potentiële voordelen behouden blijven en dat toezichthouders wendbaar blijven. Maar nauw overleg met technologiebedrijven is één ding; Het simpelweg overdragen van het bestuur aan de particuliere sector is iets heel anders.
WIE HEEFT HIER DE LEIDING?
Sommige commentatoren zijn minder bezorgd dat regeringen AI niet begrijpen, of dat ze de AI-regelgeving verkeerd zullen interpreteren, omdat ze betwijfelen of het optreden van de overheid er überhaupt toe doet.
Het techno-deterministische kamp suggereert dat overheden uiteindelijk slechts een beperkt vermogen hebben om technologiebedrijven te reguleren. Omdat de echte macht in Silicon Valley en andere technologiecentra ligt waar AI wordt ontwikkeld, heeft het geen zin dat regeringen een strijd kiezen die ze zullen verliezen. Bijeenkomsten en topconferenties op hoog niveau zijn voorbestemd als bijzaak, waarbij regeringen alleen maar kunnen doen alsof zij nog steeds de leiding hebben.
Sommige commentatoren beweren zelfs – niet geheel overtuigend – dat technologiebedrijven ‘ nieuwe gouverneurs ’ zijn die ‘een vorm van soevereiniteit uitoefenen’ en een wereld inluiden die niet unipolair, bipolair of multipolair zal zijn, maar eerder ‘ technopolair ’. De grootste technologiebedrijven oefenen inderdaad een grotere economische en politieke invloed uit dan de meeste staten. De technologie-industrie beschikt ook over vrijwel onbeperkte middelen waarmee ze tegen regelgeving kan lobbyen en zichzelf kan verdedigen in juridische strijd tegen regeringen.
Toch betekent dit niet dat regeringen op dit gebied machteloos zijn. De staat blijft de fundamentele eenheid waarrond samenlevingen zijn opgebouwd. Zoals politicoloog Stephen M. Walt onlangs zei : “Wat verwacht je dat er over 100 jaar zal zijn? Facebook of Frankrijk?” Ondanks alle invloed die technologiebedrijven hebben vergaard, hebben overheden nog steeds de ultieme autoriteit om dwang uit te oefenen.
Deze autoriteit kan worden ingezet en wordt ook vaak ingezet om de manier waarop bedrijven opereren te veranderen. De gebruikersvoorwaarden, gemeenschapsrichtlijnen en andere regels die door grote technologiebedrijven zijn geschreven, blijven onderworpen aan wetten die zijn geschreven door overheden die de bevoegdheid hebben om de naleving van die wetten af te dwingen. Technologiebedrijven kunnen zich niet loskoppelen van overheden.
Hoewel ze kunnen proberen zich te verzetten tegen de regelgeving van de overheid en deze vorm te geven, moeten ze deze uiteindelijk gehoorzamen. Ze kunnen niet tegen de bezwaren van de antitrustautoriteiten in fusies forceren, noch kunnen ze weigeren digitale belastingen te betalen die overheden invoeren, of digitale diensten aanbieden die in strijd zijn met de wetten van een rechtsgebied. Als overheden bepaalde AI-systemen of -toepassingen verbieden, zullen technologiebedrijven geen andere keuze hebben dan zich aan die markt te houden of zich erbuiten te houden.
Dit is niet louter hypothetisch. Eerder dit jaar waarschuwde Sam Altman van OpenAI (de ontwikkelaar van ChatGPT) dat zijn bedrijf zijn producten mogelijk niet in de EU zou aanbieden vanwege wettelijke beperkingen. Maar binnen enkele dagen keerde hij terug . De soevereiniteit van OpenAI is beperkt tot de vrijheid om geen zaken te doen in de EU of enig ander rechtsgebied waartegen de regelgeving zich verzet. Het is vrij om die keuze uit te oefenen; maar het is een kostbare keuze om te maken.
EEN PROBLEEM VAN DE WIL
De vraag is dus niet of regeringen de digitale economie kunnen besturen; het gaat erom of ze de politieke wil hebben om dat te doen. Sinds de commercialisering van het internet in de jaren negentig heeft de Amerikaanse regering ervoor gekozen belangrijke bestuursfuncties aan de particuliere sector te delegeren. Deze techno-libertaire benadering komt op beroemde wijze tot uiting in Sectie 230 van de Communications Decency Act uit 1996, die onlineplatforms beschermt tegen aansprakelijkheid voor inhoud van derden die zij hosten. Maar zelfs binnen dit kader is de Amerikaanse regering niet machteloos. Hoewel het platformbedrijven de vrije hand gaf met Sectie 230, behoudt het de bevoegdheid om die wet in te trekken of te wijzigen.
De politieke wil om dit te doen ontbrak in het verleden misschien, maar het momentum voor regulering neemt toe nu het vertrouwen in de technologie-industrie is afgenomen. De afgelopen jaren hebben Amerikaanse wetgevers wetsvoorstellen ingediend om niet alleen Sectie 230 te herschrijven, maar ook om de antitrustwetten nieuw leven in te blazen en een federale privacywet in te stellen. En sommige wetgevers zijn nu vastbesloten om AI te reguleren. Ze houden hoorzittingen en stellen al wetgeving voor om de recente vooruitgang op het gebied van generatieve AI-algoritmen en grote taalmodellen aan te pakken.
Maar hoewel Democraten en Republikeinen in het Congres het er steeds meer over eens zijn dat technologiebedrijven te machtig zijn geworden en gereguleerd moeten worden, zijn ze diep verdeeld als het gaat om de manier waarop ze dit moeten aanpakken. Voor sommigen is de zorg dat AI-regulering de Amerikaanse technologische vooruitgang en innovatie zou ondermijnen opvallend in een tijdperk van toenemende concurrentie tussen de VS en China. En natuurlijk blijven technologiebedrijven agressief en effectief lobbyen, wat erop wijst dat zelfs een tweeledige anti-tech kruistocht uiteindelijk weinig zal veranderen. Hoe sterk de onvrede over technologiebedrijven ook is, de politieke disfunctie binnen het Congres zou sterker kunnen blijken.
Nogmaals, dit betekent niet dat overheden niet de leiding hebben. De EU van haar kant wordt niet gehinderd door hetzelfde politieke disfunctioneren, en haar recente wetgevende staat van dienst is indrukwekkend. Na de goedkeuring van de Algemene Verordening Gegevensbescherming (AVG) in 2016 is het bedrijf overgegaan tot het reguleren van onlineplatforms met zijn baanbrekende wetten uit 2022: de Digital Services Act en de Digital Markets Act, die duidelijke regels vaststellen voor respectievelijk contentmoderatie en marktconcurrentie. . En de ambitieuze AI-wet van de EU zal naar verwachting dit jaar worden afgerond.
Maar ondanks al het succes van de EU op het gebied van wetgeving, is de handhaving van haar digitale regelgeving er vaak niet in geslaagd de doelstellingen van de maatregelen te verwezenlijken. Vooral de handhaving van de AVG heeft veel kritiek opgeleverd, en alle hoge antitrustboetes die de EU aan Google heeft opgelegd, hebben weinig gedaan om de dominantie van Google te ondermijnen. Deze mislukkingen hebben ertoe geleid dat sommigen beweren dat de technologiebedrijven al te groot zijn om te reguleren, en dat AI hun marktmacht nog verder zal versterken, waardoor de EU nog machtelozer wordt om haar wetten te handhaven.
De Chinese regering heeft uiteraard niet met dit probleem te maken. Zonder de noodzaak om zich aan een democratisch proces te houden, kon het land vanaf 2020 dramatisch en plotseling hard optreden tegen de technologie-industrie van het land, en technologiebedrijven capituleerden terecht. Dit relatieve ‘succes’ bij het ter verantwoording roepen van technologiebedrijven staat in schril contrast met de ervaring van Europese en Amerikaanse toezichthouders. In beide jurisdicties moeten toezichthouders langdurige juridische strijd voeren tegen bedrijven die op betrouwbare wijze de regelgevende maatregelen die zij ondernemen zullen betwisten in plaats van ermee in te stemmen.
Hetzelfde patroon zou zich wellicht kunnen herhalen met AI-regulering. Het Amerikaanse Congres zal waarschijnlijk in een impasse blijven steken, met verhitte debatten tot gevolg, maar geen echte actie; en de EU zal wetgeving maken, hoewel aanhoudende onzekerheid over de effectiviteit van haar regelgeving zou kunnen leiden tot een resultaat dat lijkt op dat van de VS. In dat geval zullen technologiebedrijven, en niet democratisch gekozen regeringen, de vrijheid hebben om de AI-revolutie vorm te geven zoals zij dat nodig achten.
DE GROTE TEST VAN DE DEMOCRATIE
Deze scenario’s brengen een verontrustende mogelijkheid met zich mee: alleen autoritaire regimes zijn in staat om AI effectief te besturen. Om deze stelling te weerleggen zullen de VS, de EU en andere gelijkgestemde regeringen moeten aantonen dat democratisch bestuur voor AI zowel haalbaar als effectief is. Zij zullen moeten vasthouden aan hun rol als belangrijkste regelgevers.
De komende top zal de wereld er waarschijnlijk niet van overtuigen dat werkelijk mondiale AI-regels binnenkort binnen handbereik zijn. De meningsverschillen blijven te diep voor landen – vooral de zogenaamde techno-democratieën en techno-autocratieën – om gezamenlijk op te treden. Niettemin kan en moet de top een duidelijk signaal afgeven dat technologiebedrijven verplicht blijven aan overheden, en niet andersom.
Terwijl ze nauw samenwerken met technologiebedrijven om AI-innovatie te bevorderen en de voordelen te maximaliseren, zullen democratische regeringen ook hun burgers, waarden en instellingen moeten beschermen. Zonder dit soort dubbele inzet zal de AI-revolutie veel waarschijnlijker haar gevaar waarmaken, en niet haar belofte.