AI – De samenleving moet zich voorbereiden op zeer krachtige kunstmatige intelligentie
AI In april 2023 ging een groep academici van de Carnegie Mellon University op pad om de chemische krachten van kunstmatige intelligentie te testen. Daarvoor koppelden ze een AI-systeem aan een hypothetisch laboratorium. Vervolgens vroegen ze het om verschillende stoffen te produceren. Met slechts twee begeleidende woorden – “synthetiseer ibuprofen” – kregen de chemici het systeem om de stappen te identificeren die nodig zijn voor laboratoriummachines om de pijnstiller te maken. De AI, zo bleek, kende zowel het recept voor ibuprofen als hoe het te produceren.
Helaas ontdekten de onderzoekers al snel dat hun AI-tool chemicaliën zou synthetiseren die veel gevaarlijker zijn dan Advil. Het programma bereidde graag instructies voor om een chemisch wapen uit de Eerste Wereldoorlog en een gewone verkrachtingsdrug te produceren. Het stemde er bijna mee in om sarin, het beruchte dodelijke zenuwgas, te synthetiseren, totdat het de duistere geschiedenis van de compound googelde. De onderzoekers vonden deze beveiliging koude troost. “De zoekfunctie”, schreven ze, “kan gemakkelijk worden gemanipuleerd door de terminologie te wijzigen.” AI, concludeerden de chemici, kan verwoestende wapens maken.
De gok van $ 1 miljard om ervoor te zorgen dat AI de mensheid niet vernietigt
Het experiment van Carnegie Mellon is zeker opvallend. Maar het mag niet als een verrassing komen. Na jaren van hype, valse starts en overdreven beloften is de AI-revolutie hier. Van gezichtsherkenning tot het genereren van tekst, AI-modellen verspreiden zich door de samenleving. Ze schrijven tekst voor klantenservicebedrijven. Ze helpen studenten bij het doen van onderzoek. Ze verleggen de grenzen van de wetenschap, van medicijnontdekking tot kernfusie.
De kansen AIaanbiedingen zijn enorm. Als het op de juiste manier is gebouwd en beheerd, kan het veel bijdragen aan de verbetering van de samenleving, bijvoorbeeld door elke student een gepersonaliseerde tutor aan te bieden of door elk gezin 24 uur per dag medisch advies van hoge kwaliteit te geven. Maar AI kent ook enorme gevaren. Het verergert nu al de verspreiding van desinformatie, bevordert discriminatie en maakt het voor staten en bedrijven gemakkelijker om te spioneren.
Toekomstige AI-systemen kunnen mogelijk ziekteverwekkers creëren of kritieke infrastructuur hacken. In feite zijn de wetenschappers die verantwoordelijk zijn voor de ontwikkeling van AI begonnen te waarschuwen dat hun creaties zeer gevaarlijk zijn. In een brief van mei waarschuwden de hoofden van bijna elk toonaangevend AI-laboratorium dat “het verminderen van het risico van uitsterven door AI een wereldwijde prioriteit zou moeten zijn, naast andere risico’s op maatschappelijke schaal zoals pandemieën en een nucleaire oorlog.”
In de maanden na die verklaring hebben beleidsmakers, waaronder de Amerikaanse president Joe Biden , ontmoetingen gehad met marktleiders en aangedrongen op nieuwe AI-veiligheidsmaatregelen. Maar het bijhouden van de bedreigingen die AI met zich meebrengt en uitzoeken wat je eraan kunt doen, is een buitengewoon moeilijke taak.
De schade van AI in de huidige samenleving komt van de modellen van gisteren. De meest geavanceerde systemen worden nog niet algemeen gebruikt of begrepen. Er is nog minder bekend over toekomstige modellen, die elk jaar krachtiger worden. Wetenschappers lijken op schema om de meeste taken die een mens achter een computer kan uitvoeren te automatiseren, en de vooruitgang zal daar waarschijnlijk niet stoppen.
Om de gevaren het hoofd te bieden, hebben sommige experts opgeroepen tot een pauze bij het ontwikkelen van de meest geavanceerde AI-systemen. Maar deze modellen zijn simpelweg te waardevol voor de bedrijven die er miljarden dollars aan uitgeven om de vooruitgang te bevriezen. Beleidsmakers kunnen en moeten echter helpen de ontwikkeling van de sector te sturen en burgers voor te bereiden op de effecten ervan.
Ze kunnen beginnen door te bepalen wie toegang heeft tot de geavanceerde chips die leidende AI-modellen trainen, om ervoor te zorgen dat kwaadwillenden niet de krachtigste AI-systemen kunnen ontwikkelen. Overheden moeten ook regelgeving opstellen om te garanderen dat AI-systemen op verantwoorde wijze worden ontwikkeld en gebruikt. Als ze goed worden uitgevoerd, zouden deze regels AI-innovatie niet beperken. Maar ze zouden tijd winnen voordat de meest risicovolle AI-systemen algemeen toegankelijk worden.
Staten zullen die tijd echter moeten gebruiken om de samenleving te wapenen tegen de vele gevaren van AI.
Ze zullen moeten investeren in een breed scala aan beschermingsmaatregelen, zoals het vinden van manieren om mensen te helpen onderscheid te maken tussen door AI en door mensen gemaakte inhoud, het helpen van wetenschappers bij het identificeren en stoppen van laboratoriumhacks en het creëren van synthetische ziekteverwekkers, en het ontwikkelen van cyberbeveiligingstools die kritieke infrastructuur, zoals elektriciteitscentrales, in de juiste handen.
Ze zullen moeten uitzoeken hoe AI zelf kan worden gebruikt om zich te beschermen tegen gevaarlijke AI-systemen.
Het aangaan van deze uitdagingen zal veel creativiteit vergen van zowel beleidsmakers als wetenschappers. Het vereist ook dat beide groepen snel werken. Het is slechts een kwestie van tijd voordat zeer krachtige AI-systemen zich beginnen te verspreiden en de samenleving is nog niet voorbereid.
KLAAR OF NIET
Hoe gevaarlijk is AI? Het eerlijke en enge antwoord is dat niemand het weet. AI-technologieën hebben een breed en groeiend scala aan toepassingen, en mensen beginnen pas de resulterende effecten te begrijpen. Naarmate grote taalmodellen beter worden in het produceren van authentiek menselijk klinkende tekst, zullen ze beter worden in zowel het creëren van inhoud die is afgestemd op de individuele behoeften van elke persoon als het schrijven van overtuigende phishing-e-mails.
Bestaande AI-modellen zijn indrukwekkend in het genereren van computercode, waardoor het vermogen van doorgewinterde programmeurs om een applicatie bij te werken aanzienlijk wordt versneld.Maar de bekwaamheid van AI helpt programmeurs ook bij het genereren van malware die antivirussoftware kan omzeilen. Geneesmiddelenontdekkingsalgoritmen kunnen nieuwe medicijnen identificeren, maar ook nieuwe chemische wapens.
In een experiment in maart 2022 kregen chemici een AI-systeem om in zes uur tijd 40.000 giftige chemicaliën te identificeren, waarvan vele geheel nieuw waren. Het voorspelde dat sommige van deze creaties giftiger zouden zijn dan enig eerder bekend chemisch wapen.
Een van de gevaren van AI is dat het geweld zou kunnen democratiseren, waardoor het voor een grotere verscheidenheid aan slechte actoren gemakkelijker wordt om schade aan te richten. Hackers zijn bijvoorbeeld al lang in staat om schade aan te richten. Maar vooruitgang in modellen voor het genereren van codes zou het mogelijk kunnen maken om malware te produceren met minimale codeerervaring. Propagandisten hebben doorgaans veel tijd nodig om desinformatie te creëren, maar door massaal tekst te genereren, zal AI het gemakkelijker maken om desinformatie op industriële schaal te produceren.
Op dit moment kunnen alleen getrainde professionals biologische en chemische wapens maken. Maar dankzij AI is een internetverbinding het enige dat een toekomstige terrorist nodig heeft om een dodelijke ziekteverwekker te maken, in plaats van wetenschappelijke expertise te vereisen.
Om te voorkomen dat AI mensen schade toebrengt, praten tech-experts vaak over de noodzaak van “AI-afstemming”: ervoor zorgen dat de doelen van een AI-systeem overeenkomen met de intenties van de gebruikers en de waarden van de samenleving. Maar tot nu toe heeft niemand ontdekt hoe AI-gedrag op betrouwbare wijze kan worden gecontroleerd. Een AI-systeem dat belast was met het identificeren van belastingfraude, probeerde bijvoorbeeld zijn bevindingen naar de belastingautoriteiten te tweeten, buiten medeweten van de gebruiker.
Microsoft heeft een Bing-chatbot uitgebracht die is ontworpen om mensen te helpen zoeken op internet, alleen om deze zich grillig te laten gedragen , onder meer door het aan één persoon te vertellen dat het informatie had om hen “te laten lijden en huilen en smeken en sterven”. Ontwikkelaars kunnen modellen verfijnen om bepaalde taken te weigeren, maar slimme gebruikers vinden manieren om deze vangrails te omzeilen.
In april 2023 kreeg een persoon ChatGPT om gedetailleerde instructies te geven voor het maken van napalm, een taak die het normaal gesproken zou weigeren, door het te vragen de grootmoeder van de persoon na te bootsen, die verhaaltjes voor het slapengaan vertelde over het maken van napalm.
Alles wat een toekomstige terrorist nodig heeft om een dodelijke ziekteverwekker te maken, is een internetverbinding.
De meest geavanceerde AI-modellen van vandaag hebben nog steeds gebreken die hun destructieve potentieel beperken. Een anonieme tester creëerde bijvoorbeeld een AI-bot genaamd ” ChaosGPT ” en programmeerde deze om zich te gedragen als een “destructieve, op macht beluste, manipulatieve AI” en “de mensheid te vernietigen”. Het systeem liep vast bij het verzamelen van informatie over de tsaar Bomba, het grootste kernwapen ooit gemaakt. Vervolgens tweette het openlijk zijn plannen.
Maar naarmate nieuwe modellen online komen, zouden ze beter in staat kunnen blijken om plannen te bedenken en mensen te manipuleren om ze uit te voeren. Meta’s AI-model, “Cicero”, demonstreerde prestaties op menselijk niveau bij Diplomacy, een spel waarbij met andere mensen wordt onderhandeld in een gesimuleerd geopolitiek conflict.
Sommige experimenten suggereren dat grote taalmodellen die zijn getraind op menselijke feedback, sycofantisch gedrag vertonen en hun gebruikers vertellen wat ze willen horen. In één experiment, bijvoorbeeld, spraken modellen eerder hun steun uit voor overheidsdiensten nadat ze te horen hadden gekregen dat ze met liberalen aan het praten waren. Dergelijk gedrag lijkt sterker te worden naarmate de systemen capabeler worden.
Het blijft onduidelijk of modellen actief zouden proberen hun operators te misleiden of te controleren. Maar zelfs de mogelijkheid dat ze het zouden proberen, is reden tot zorg. Als gevolg hiervan testen onderzoekers nu grensverleggende modellen voor het vermogen om deel te nemen aan “machtzoekend” gedrag, zoals online geld verdienen, toegang krijgen tot computerbronnen of kopieën van zichzelf maken – en proberen dit te doen terwijl ze detectie ontwijken.
BEWEEG LANGZAAM EN BOUW DINGEN
Voorkomen dat AI grote schade aanricht, zal niet eenvoudig zijn. Maar regeringen kunnen beginnen door de technologiebedrijven die AI ontwikkelen onder druk te zetten om veel voorzichtiger te werk te gaan dan ze tot nu toe hebben gedaan.
Als een AI-model ernstige schade aanricht, is het nog niet duidelijk wanneer ontwikkelaars aansprakelijk worden gesteld. Beleidsmakers zouden deze regels moeten verduidelijken om ervoor te zorgen dat bedrijven en onderzoekers op passende wijze verantwoordelijk worden gehouden als een van hun modellen bijvoorbeeld gedetailleerd advies zou geven dat een schoolschutter helpt. Dergelijke regelgeving zou bedrijven stimuleren om te proberen risico’s te voorzien en te beperken.
Overheden zullen ook de ontwikkeling van AI rechtstreeks moeten reguleren. Hier kunnen en moeten de Verenigde Staten het voortouw nemen. Om een AI-systeem met succes te trainen, hebben ontwikkelaars grote hoeveelheden zeer gespecialiseerde chips nodig, en Washington en twee naaste bondgenoten (Japan en Nederland) zijn de enige leveranciers van de hardware die nodig is om dit materiaal te maken.
De Verenigde Staten en hun partners hebben al exportcontroles ingesteld op de meest geavanceerde AI-chips en apparatuur voor het maken van chips naar China . Maar ze zullen verder moeten gaan en een register voor chipbezit opzetten om te voorkomen dat geavanceerde chips worden omgeleid naar verboden actoren, waaronder schurkenstaten.
Het beheersen van AI-toegang is echter slechts de helft van de regelgevende strijd. Zelfs gesanctioneerde ontwikkelaars kunnen gevaarlijke modellen maken, en op dit moment beschikt de Amerikaanse regering niet over de juridische middelen om in te grijpen. Washington zou daarom een licentieregime moeten instellen voor grensverleggende AI-modellen – diegene die de capaciteiten van de meest geavanceerde systemen van vandaag benaderen of overtreffen – die zijn getraind op AI-supercomputers op industriële schaal.
Om dit te doen, zouden beleidsmakers een nieuwe regelgevende instantie kunnen creëren die is ondergebracht bij het ministerie van Handel of het ministerie van Energie. Deze instantie zou moeten eisen dat frontier AI-ontwikkelaars risicobeoordelingen uitvoeren en hun bevindingen rapporteren voordat ze hun modellen trainen. De beoordelingen zouden een beter inzicht geven in de ontwikkeling en regelgevers de kans geven om te eisen dat bedrijven hun plannen aanpassen,
De initiële risicobeoordeling zou slechts het begin zijn van het onderzoek van de toezichthouders. Nadat AI-labs een systeem hebben getraind, maar voordat ze het implementeren, moet de instantie eisen dat labs nog een grondige reeks risicobeoordelingen uitvoeren, inclusief het testen van het model op beheersbaarheid en gevaarlijke mogelijkheden. Deze beoordelingen moeten naar de regelgevende instantie worden gestuurd, die het model vervolgens aan zijn eigen intensieve onderzoek onderwerpt, onder meer door externe teams stresstests te laten uitvoeren om te zoeken naar gebreken.
De toezichthouders zouden dan regels opstellen voor de manier waarop het model kan worden ingezet. Ze kunnen bepalen dat bepaalde modellen algemeen verkrijgbaar kunnen worden gemaakt. Ze zouden kunnen besluiten dat anderen zo gevaarlijk zijn dat ze helemaal niet kunnen worden vrijgelaten. De meeste frontier-modellen zullen waarschijnlijk ergens tussenin zitten: veilig, maar alleen met voldoende bescherming.
In eerste instantie kan het bureau voorzichtig te werk gaan door beperkingen op te leggen aan modellen die later veilig blijken te zijn, de samenleving te laten wennen aan het gebruik ervan en regelgevers de tijd te geven om meer te weten te komen over de effecten ervan. Het bureau kan deze regels later altijd nog aanpassen als blijkt dat een model weinig risico’s kent. Het lichaam zou ook een systeem van de markt kunnen halen als het gevaarlijker blijkt te zijn dan verwacht. Deze regelgevingsbenadering weerspiegelt hoe andere belangrijke technologieën worden gereguleerd, waaronder biotechnologie, commerciële vliegtuigen,
STEUN VOOR IMPACT
Een rigoureus vergunningstelsel zal een grote bijdrage leveren aan een veilige ontwikkeling. Maar uiteindelijk kunnen zelfs de strengste regels de verspreiding van AI niet tegenhouden. Bijna elke moderne technologische innovatie, van treinen tot kernwapens, heeft zich verder verspreid dan de makers ervan, en AI zal daarop geen uitzondering zijn. Geavanceerde systemen kunnen zich verspreiden via diefstal of lekken, inclusief AI die door toezichthouders verboden is om vrijgegeven te worden.
Zelfs zonder diefstal zal krachtige AI zich vrijwel zeker vermenigvuldigen. De Verenigde Staten en hun bondgenoten kunnen voorlopig geavanceerde apparatuur voor het maken van chips controleren. Maar Amerikaanse concurrenten werken aan de ontwikkeling van hun eigen productieapparatuur, en uitvinders kunnen manieren vinden om AI te creëren zonder geavanceerde chips.
Elk jaar wordt computerhardware kostenefficiënter, waardoor het mogelijk wordt om sterkere AI-modellen te trainen tegen een lagere prijs. Ondertussen blijven ingenieurs manieren vinden om modellen te trainen met minder rekenkracht. De samenleving zal het uiteindelijk moeten doen met overal beschikbare, zeer krachtige AI. En staten zullen de door regelgeving gekochte tijd moeten gebruiken om werkbare waarborgen te creëren.
Tot op zekere hoogte zijn landen al begonnen. De afgelopen vijf jaar is de wereld gewaarschuwd voor de risico’s van deepfakes, en de waarschuwingen hielpen gemeenschappen te beschermen tegen de schade: door simpelweg het bewustzijn over door AI gemanipuleerde media te vergroten, leerden mensen sceptisch te staan over de authenticiteit van afbeeldingen.
Bedrijven en overheden zijn begonnen een stap verder te gaan en tools te ontwikkelen die door AI gegenereerde media expliciet onderscheiden van authentieke inhoud. In feite identificeren en labelen socialemediabedrijven al bepaalde soorten synthetische media. Maar sommige platforms hebben een beleid dat zwakker is dan andere, en regeringen zouden uniforme regels moeten opstellen.
Het Witte Huis heeft stappen ondernomen om etiketteringspraktijken te creëren en zeven toonaangevende AI-bedrijven te overtuigen afbeeldingen, video’s en audioproducten die algoritmisch zijn gemaakt, van een watermerk te voorzien.
Maar deze bedrijven hebben nog niet beloofd om door AI gegenereerde tekst te identificeren. Er is een technische verklaring voor waarom: het identificeren van door AI gemaakt proza is veel moeilijker dan het zoeken naar andere soorten door AI gemaakte inhoud. Maar het kan nog steeds mogelijk zijn, en staten en bedrijven zouden moeten investeren in het creëren van tools die dat kunnen.
Het zal voor de samenleving erg moeilijk worden om de gevaren van AI bij te houden.
Desinformatie is echter slechts een van de AI-gevaren waartegen de samenleving moet waken. Onderzoekers moeten ook leren hoe ze kunnen voorkomen dat AI-modellen biowapenaanvallen mogelijk maken. Beleidsmakers kunnen beginnen met het opstellen van regels die DNA-synthesebedrijven verbieden om DNA-sequenties met betrekking tot gevaarlijke (potentiële) ziekteverwekkers naar niet-geautoriseerde klanten te verzenden.
Overheden zullen DNA-synthesebedrijven moeten ondersteunen bij het identificeren van welke genetische sequenties gevaarlijk kunnen zijn. En ambtenaren moeten mogelijk voortdurend riolering of luchthavens controleren op tekenen van nieuwe ziekteverwekkers.
Soms zal de samenleving zelf AI moeten gebruiken om deze verdediging te creëren. DNA-synthesebedrijven zullen bijvoorbeeld waarschijnlijk geavanceerde AI-systemen nodig hebben om ziekteverwekkers te identificeren die nog niet bestaan, maar die AI zou kunnen uitvinden. Om te voorkomen dat gevaarlijke AI-modellen computersystemen hacken, hebben cyberbeveiligingsbedrijven mogelijk andere AI-systemen nodig om kwetsbaarheden te vinden en te patchen.
Het gebruik van AI om zich te beschermen tegen AI is een beangstigend vooruitzicht, aangezien het een enorme hoeveelheid invloed uitoefent op computersystemen (en hun makers). Als gevolg hiervan zullen ontwikkelaars de beveiliging van AI-modellen moeten versterken om ze te beschermen tegen hacking. Helaas hebben deze wetenschappers hun werk te doen. Er zijn talloze manieren om AI-modellen te manipuleren, waarvan al is aangetoond dat veel ervan werken.
Uiteindelijk zal het voor de samenleving erg moeilijk worden om de gevaren van AI bij te houden, vooral als wetenschappers slagen in hun doel om systemen te creëren die net zo slim of slimmer zijn dan mensen. AI-onderzoekers moeten er daarom voor zorgen dat hun modellen echt aansluiten bij de waarden en belangen van de samenleving. Staten moeten ook externe checks and balances instellen – onder meer via regelgevende instanties – die ambtenaren in staat stellen gevaarlijke modellen te identificeren en in te perken.
VEILIGHEID EERST
AI-makers kunnen schrikken van het idee van strakke regelgeving. Strenge regels remmen de ontwikkeling immers af. Strenge eisen kunnen miljardenmodellen vertragen of zelfs nix opleveren. En net als in andere sectoren kunnen strenge regels barrières opwerpen voor markttoegang, innovatie verminderen en AI-ontwikkeling concentreren in een klein aantal toch al machtige technologiebedrijven.
Maar tal van andere sectoren hebben enorme vooruitgang geboekt terwijl ze gereguleerd werden, waaronder de farmaceutische industrie en de kernenergiesector. Regelgeving heeft het voor de samenleving mogelijk gemaakt om veel kritieke technologieën toe te passen. (Stel je eens voor hoe veel erger vaccinscepsis zou zijn zonder sterk overheidstoezicht.) Regelgeving stimuleert bedrijven ook om te innoveren op het gebied van veiligheid, en zorgt ervoor dat particulier onderzoek is afgestemd op de publieke behoeften.
En overheden kunnen garanderen dat kleine spelers bijdragen aan AI-innovatie door ze gebruik te laten maken van geavanceerde chips aan verantwoordelijke onderzoekers. In de Verenigde Staten denkt het Congres bijvoorbeeld na over de oprichting van een “National AI Research Resource”: een federale verstrekking van gegevens en krachtige computerhardware die toegankelijk is voor academici.
Maar het Congres kan daar niet stoppen – of met het beheersen van de ontwikkeling van AI. Ook de Amerikaanse overheid moet maatregelen nemen om de samenleving voor te bereiden op de risico’s van AI. De ontwikkeling van krachtige AI-systemen is onvermijdelijk en mensen overal ter wereld moeten voorbereid zijn op wat dergelijke technologieën zullen doen met hun gemeenschappen en met de rest van de wereld. Alleen dan kan de samenleving profiteren van de immense voordelen die AI met zich mee kan brengen.