Wetten, schoolverboden en Sam Altman-drama: de grote ontwikkelingen op het gebied van AI in 2023.
Het afgelopen jaar bracht de hoop en angst rond AI onder de aandacht toen transformatieve technologie mainstream werd.
De kunstmatige intelligentie-industrie (AI) begon 2023 met een knaller toen scholen en universiteiten worstelden met studenten die ChatGPT van OpenAI gebruikten om hen te helpen met huiswerk en het schrijven van essays.
Minder dan een week na het jaar verbood New York City Public Schools ChatGPT – weken eerder vrijgegeven met veel ophef – een stap die de weg vrij zou maken voor een groot deel van de discussie over generatieve AI in 2023.
Naarmate de buzz groeide rond het door Microsoft gesteunde ChatGPT en rivalen als Google’s Bard AI, Baidu’s Ernie Chatbot en Meta’s LLaMA, namen ook de vragen toe over hoe om te gaan met een krachtige nieuwe technologie die van de ene op de andere dag voor het publiek toegankelijk was geworden.
Hoewel door AI gegenereerde afbeeldingen, muziek, video’s en computercode gemaakt door platforms als Stability AI’s Stable Diffusion of OpenAI’s DALL-E opwindende nieuwe mogelijkheden openden, voedden ze ook zorgen over desinformatie, gerichte intimidatie en inbreuk op het auteursrecht.
In maart riep een groep van meer dan duizend ondertekenaars, waaronder mede-oprichter van Apple Steve Wozniak en miljardair tech-ondernemer Elon Musk, op tot een pauze in de ontwikkeling van meer geavanceerde AI in het licht van de “diepgaande risico’s voor de samenleving en de mensheid”.
Hoewel er geen pauze kwam, begonnen regeringen en regelgevende instanties nieuwe wet- en regelgeving uit te rollen om de ontwikkeling en het gebruik van AI tegen te houden.
Hoewel veel problemen rond AI onopgelost blijven in de aanloop naar het nieuwe jaar, zal 2023 waarschijnlijk de geschiedenis ingaan als een belangrijke mijlpaal in de geschiedenis van het vakgebied.
Drama bij OpenAI
Nadat ChatGPT in 2023 meer dan 100 miljoen gebruikers had verzameld, keerde ontwikkelaar OpenAI in november terug naar het nieuws toen de raad van bestuur CEO Sam Altman abrupt ontsloeg – bewerend dat hij niet “consequent openhartig was in zijn communicatie met het bestuur”.
Hoewel de startup uit Silicon Valley niet inging op de redenen voor het ontslag van Altman, werd zijn ontslag algemeen toegeschreven aan een ideologische strijd binnen het bedrijf tussen veiligheid en commerciële belangen.
De verwijdering van Altman veroorzaakte vijf dagen van zeer openbaar drama waarin het OpenAI-personeel massaal dreigde te stoppen en Altman kort werd ingehuurd door Microsoft, tot aan zijn herstel en de vervanging van het bestuur.
Hoewel OpenAI heeft geprobeerd het drama achter zich te laten, blijven de vragen die tijdens de onrust zijn opgeworpen gelden voor de industrie als geheel – inclusief de vraag hoe de drang naar winst en de lancering van nieuwe producten moet worden afgewogen tegen de angst dat AI te snel te krachtig zou kunnen worden, of zou kunnen vallen. in de verkeerde handen terechtkomen.
In een onderzoek onder 305 ontwikkelaars, beleidsmakers en academici, uitgevoerd door het Pew Research Center in juli, zei 79 procent van de respondenten dat ze meer bezorgd dan enthousiast waren over de toekomst van AI, of net zo bezorgd als enthousiast.
Ondanks het potentieel van AI om vakgebieden te transformeren van geneeskunde naar onderwijs en massacommunicatie, uitten de respondenten hun bezorgdheid over risico’s zoals massale surveillance, intimidatie door overheid en politie, ontheemding van banen en sociaal isolement.
Sean McGregor, de oprichter van de Responsible AI Collaborative, zei dat 2023 de hoop en angsten rond generatieve AI liet zien, evenals diepe filosofische verdeeldheid binnen de sector.
“Het meest hoopvol is het licht dat nu schijnt op maatschappelijke beslissingen die door technologen worden genomen, hoewel het zorgwekkend is dat veel van mijn collega’s in de technologiesector dergelijke aandacht negatief lijken te beschouwen”, vertelde McGregor aan Al Jazeera, eraan toevoegend dat AI moet worden gevormd door de “ behoeften van de mensen die het zwaarst getroffen zijn.”
“Ik voel me nog steeds grotendeels positief, maar het zullen een aantal uitdagende decennia worden als we gaan beseffen dat het discours over AI-veiligheid een mooie technologische versie is van eeuwenoude maatschappelijke uitdagingen”, zei hij.
Wetgeving over de toekomst
In december zijn de beleidsmakers van de Europese Unie het eens geworden over ingrijpende wetgeving om de toekomst van AI te reguleren , waarmee een jaar van inspanningen van nationale regeringen en internationale instanties als de Verenigde Naties en de G7 wordt afgesloten.
Belangrijke zorgen zijn onder meer de informatiebronnen die worden gebruikt om AI-algoritmen te trainen, waarvan een groot deel van het internet wordt geschrapt zonder rekening te houden met privacy, vooringenomenheid, nauwkeurigheid of auteursrecht.
De ontwerpwetgeving van de EU vereist dat ontwikkelaars hun trainingsgegevens openbaar maken en de wetten van het blok naleven, met beperkingen op bepaalde soorten gebruik en een pad voor klachten van gebruikers.
Soortgelijke wetgevende inspanningen zijn gaande in de VS, waar president Joe Biden in oktober een ingrijpend uitvoerend bevel over AI-normen uitvaardigde, en in Groot-Brittannië, waar in november de AI Safety Summit plaatsvond, waarbij 27 landen en belanghebbenden uit de industrie betrokken waren.
China heeft ook stappen ondernomen om de toekomst van AI te reguleren, door tussentijdse regels uit te vaardigen voor ontwikkelaars die hen verplichten zich aan een “veiligheidsbeoordeling” te onderwerpen voordat ze producten aan het publiek vrijgeven.
Richtlijnen beperken ook AI-trainingsgegevens en verbieden inhoud die wordt gezien als ‘pleiten voor terrorisme’, ‘de sociale stabiliteit ondermijnt’, ‘het socialistische systeem omverwerpt’ of ‘het imago van het land schaadt’.
Wereldwijd werd in 2023 ook de eerste tussentijdse internationale overeenkomst over AI-veiligheid ondertekend, ondertekend door twintig landen, waaronder de Verenigde Staten, het Verenigd Koninkrijk, Duitsland, Italië, Polen, Estland, Tsjechië, Singapore, Nigeria, Israël en Chili.
AI en de toekomst van werk
Vragen over de toekomst van AI zijn ook wijdverbreid in de particuliere sector, waar het gebruik ervan in de VS al heeft geleid tot class action-rechtszaken van schrijvers, artiesten en nieuwsmedia wegens vermeende inbreuk op het auteursrecht.
De angst dat AI banen zou vervangen was een drijvende factor achter maandenlange stakingen in Hollywood door de Screen Actors Guild en Writers Guild of America.
In maart voorspelde Goldman Sachs dat generatieve AI 300 miljoen banen zou kunnen vervangen door automatisering en op zijn minst tweederde van de huidige banen in Europa en de VS zou kunnen beïnvloeden – waardoor het werk productiever maar ook meer geautomatiseerd zou worden.
Anderen hebben geprobeerd de meer catastrofale voorspellingen te temperen.
In augustus zei de Internationale Arbeidsorganisatie, het arbeidsbureau van de VN, dat generatieve AI waarschijnlijk de meeste banen zal vergroten dan vervangen, waarbij administratief werk wordt genoemd als het beroep dat het meeste risico loopt.
Jaar van de ‘deepfake’?
Het jaar 2024 zal een grote test zijn voor generatieve AI, nu er nieuwe apps op de markt komen en nieuwe wetgeving van kracht wordt tegen de achtergrond van mondiale politieke onrust.
De komende twaalf maanden zullen ruim twee miljard mensen stemmen bij verkiezingen in een recordaantal van veertig landen, waaronder geopolitieke hotspots als de VS, India, Indonesië, Pakistan, Venezuela, Zuid-Soedan en Taiwan.
Hoewel online-desinformatiecampagnes al een vast onderdeel vormen van veel verkiezingscycli, wordt verwacht dat AI-gegenereerde inhoud de zaken alleen maar erger zal maken, omdat valse informatie steeds moeilijker te onderscheiden is van echte informatie en gemakkelijker op grote schaal te repliceren is.
Door AI gegenereerde inhoud, waaronder ‘deepfake’-beelden, is al gebruikt om woede en verwarring aan te wakkeren in conflictgebieden zoals Oekraïne en Gaza, en is te zien geweest in fel omstreden verkiezingsraces zoals de Amerikaanse presidentsverkiezingen.
Meta vertelde adverteerders vorige maand dat het politieke advertenties op Facebook en Instagram zal verbieden die zijn gemaakt met generatieve AI, terwijl YouTube aankondigde dat het van makers zal eisen dat ze realistisch ogende, door AI gegenereerde inhoud labelen.