Geoffrey Hinton, vaak de ‘Godfather of AI’ genoemd vanwege zijn baanbrekende werk op het gebied van kunstmatige neurale netwerken, vreest dat artificial intelligence binnenkort de mensheid zou kunnen overnemen.
In een interview op 60 Minutes legde Hinton uit dat hoewel hij niet zeker kon zijn van de toekomst van AI, er heel snel iets heel erg mis zou kunnen gaan als we niet de juiste voorzorgsmaatregelen nemen.
- Geoffrey Hinton, de ‘Godfather of artificial intelligence’, waarschuwde dat AI over vijf jaar slimmer zal zijn dan mensen.
- Hinton vreest dat AI zijn code zou kunnen herschrijven, zichzelf zou kunnen repliceren en de mensheid zou kunnen overnemen.
- Hoewel hij trots is op zijn werk op het gebied van artificial intelligence, is Hinton bang dat de negatieve kanten de eventuele voordelen ruimschoots zullen overstijgen.
Hinton gelooft nog niet dat AI zelfbewust is, maar dat “we een periode tegemoet gaan waarin we voor het eerst ooit dingen hebben die intelligenter zijn dan wij.”
Hinton is niet de typische AI-doomzegger. Hij is trots op zijn baanbrekende werk en zijn prestaties op het gebied van artificial intelligence terwijl hij bij Google werkte. Hij ziet de duidelijke voordelen van het gebruik van AI in de gezondheidszorg en de ontwikkeling van nieuwe medicijnen .
Het gevaar dat hij benadrukt, ligt in het feit dat we niet echt weten hoe ingewikkelde AI-systemen ‘denken’.
Verwijzend naar het vermogen van artificial intelligence om zichzelf te leren, zei Hinton: “We hebben een heel goed idee van wat het ongeveer doet. Maar zodra het echt ingewikkeld wordt, weten we eigenlijk niet meer wat er aan de hand is, net zo min als we weten wat er in je hersenen gebeurt.”
Naarmate artificial intelligence verbetert, zal het waarschijnlijk niet eenvoudiger worden om grip te krijgen op de interne werking van de zwarte doos .
‘Ik denk dat het land over vijf jaar misschien wel beter kan redeneren dan wij,’ zei Hinton. In wezen zouden mensen binnenkort de op een na intelligentste wezens op aarde kunnen worden en de controle over artificial intelligence kunnen verliezen.
Hinton zei: “Een van de manieren waarop deze systemen aan de controle kunnen ontsnappen, is door hun eigen computercode te schrijven om zichzelf aan te passen. En dat is iets waar we ons ernstig zorgen over moeten maken.”
Als chimpansees op een dag zouden besluiten om op te staan en mensen aan te vallen, zouden de mensen winnen omdat wij slimmer zijn. Als artificial intelligence slimmer zou worden dan mensen en zou besluiten dat het ons niet leuk zou vinden, zouden wij hetzelfde lot ondergaan.
Kunnen we de computers niet gewoon uitzetten als ze zich beginnen te misdragen? Hinton zegt dat artificial intelligence, na het lezen en bestuderen van alle menselijke literatuur en politieke connivans, een meesterlijke manipulator van mensen zou worden om dat te voorkomen.
Op de vraag of artificial intelligence de mensheid zou overnemen, zei Hinton: “Ja, dat is een mogelijkheid. Ik zeg niet dat het zal gebeuren. Als we konden voorkomen dat ze dat ooit zouden willen, zou dat geweldig zijn. Maar het is niet duidelijk dat we kunnen voorkomen dat ze dat ooit willen.”
Hinton nam in mei van dit jaar ontslag bij Google, omdat hij de AI-risico’s aanvoerde waarvan hij dacht dat ze niet werden aangepakt. Hij ondertekende samen met 350 AI-leiders een verklaring van het Center For AI Safety (CAIS).
In de CAIS-verklaring staat: “Het beperken van het risico van uitsterven door AI zou een mondiale prioriteit moeten zijn, naast andere risico’s op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog.”
Hinton is duidelijk nog steeds van mening dat dit de risico’s niet overdrijft.
“Deze dingen begrijpen het wel, en omdat ze het begrijpen, moeten we goed nadenken over de toekomst, maar we weten het gewoon niet.”
De Britse regering wil in de ‘black box’ van artificial intelligence kijken
Groot-Brittannië onderhandelt met grote technologiebedrijven, waaronder OpenAI en DeepMind, met als doel een dieper inzicht te krijgen in de veiligheid van hun AI-technologieën.
Terwijl Groot-Brittannië zich opmaakt voor de mondiale artificial intelligence Safety Summit , heeft de regering de wens geuit om artificial intelligence-modellen te onderzoeken en in de ‘black box’ te kijken. Uit bronnen die op de hoogte zijn van de onderhandelingen blijkt dat vertegenwoordigers actief op zoek zijn naar toestemming om zich te verdiepen in de innerlijke werking van geavanceerde artificial intelligence-modellen.
Grote AI-ontwikkelaars zijn berucht om hun terughoudendheid als het gaat om het delen van dergelijke informatie: kunnen ze onbedoeld vertrouwelijke productdetails of bewijsmateriaal van auteursrechttrainingsgegevens vrijgeven?
De Britse regering beweert dat het begrijpen van hoe geavanceerde artificial intelligence-modellen werken de autoriteiten in staat zal stellen preventief gevaren te signaleren, maar ze hebben niet precies uitgelegd wat ze willen weten. Er zijn ook veel open-source AI-modellen die op dezelfde manier werken als eigen AI’s zoals ChatGPT.
In de VS hebben verschillende toonaangevende artificial intelligence-ontwikkelaars zich aangemeld voor een vrijwillig raamwerk waarbij hun modellen onafhankelijk worden getest voordat ze worden uitgebracht – iets dat in China al gebeurt.
Eerder in juni zorgde een voorlopige overeenkomst ervoor dat DeepMind, OpenAI en Anthropic ermee instemden om modeltoegang te verlenen aan de Britse overheid voor onderzoek en veiligheidsevaluaties. De details van deze toegang blijven echter ongedefinieerd.
In een verklaring noemde Anthropic het onderzoeken van de mogelijkheid om het model via een API (Application Programming Interface) te leveren om de zorgen van beide partijen in evenwicht te brengen.
Hoewel een API een beperkt inzicht biedt in de werking van het model, lobbyt de Britse regering voor een ‘dieper’ begrip, aldus insiders die de Financial Times informeren .
Insiders van DeepMind waren het erover eens dat toegang tot modellen voor veiligheidsonderzoek nuttig zou zijn, maar OpenAI heeft geen commentaar gegeven.
Een bron dicht bij de regering legde uit: ‘Deze bedrijven zijn niet obstructief, maar het is over het algemeen een lastige kwestie en ze hebben redelijke zorgen.’ ‘Er is geen knop die deze bedrijven zomaar kunnen indrukken om het te laten gebeuren. Dit zijn open en onopgeloste onderzoeksvragen.”
De Britse artificial intelligence Safety Summit begin november is een direct antwoord op de roep om strengere artificial intelligence-regelgeving. Er wordt verwacht dat een verscheidenheid aan belanghebbenden zal deelnemen, waaronder met name Chinese functionarissen.
Volgens insiders werkt de Britse regering aan het afronden van een overeenkomst die tijdens de top zal worden onthuld.