Het debat over kunstmatige intelligentie en ChatGPT is dramatisch misleidend. In zijn lezingenreeks voor de Universiteit van Erfurt analyseert de auteur tien gevaren van momenteel gehypte AI-systemen en betoogt: Het probleem zijn niet intelligente machines, maar de menselijke kijk op technologie.
ChatGPT het verbaast me hoeveel mensen hier zijn om zich te wijden aan het populairste technologiethema van het jaar. Het gaat om zogenaamde kunstmatige intelligentie en vooral om chatbots. Naar schatting maken al 100 miljoen mensen gebruik van ChatGPT, de chatbot van OpenAI. ChatGPT staat ook symbool voor recente technologische doorbraken. Sommigen zien het als het begin van een nieuw tijdperk voor de mensheid, anderen waarschuwen voor de ondergang ervan.
Maar voordat ik jullie, het publiek, in welke richting dan ook stuur, wil ik mijn presentatie beginnen met een dialoog. Een dialoog met een moderne chatbot. En ik zou je willen vragen om de dialoog te laten bezinken. We horen man en machine elkaar afwisselen, en de man opent het gesprek als volgt:
🧑💻 Mensen zijn allemaal hetzelfde.
🤖 In welke mate?
🧑💻 Ze irriteren ons constant aan iets.
🤖 Kun je een specifiek voorbeeld bedenken?
🧑💻Nou, mijn vriend wilde dat ik hierheen kwam.
🤖 Je vriend wilde dat je hierheen kwam.
🧑💻 Hij zei dat ik meestal depressief ben.
🤖 Het spijt me te horen dat je depressief bent.
🧑💻 Het is waar. Ik ben ontevreden.
🤖 Denk je dat hier zijn je zal helpen om je niet langer ongelukkig te voelen?
🧑💻 Ik heb hulp nodig, dat is zeker.
🤖 Wat zou het voor jou betekenen om hulp te krijgen?
🧑💻Misschien kan ik leren om met mijn moeder om te gaan.
🤖 Vertel me meer over je familie.
Je zou je erin kunnen verdiepen, de dialoog gaat nog even door. Ik heb het uit het Engels vertaald.
ChatGPT is gewoon een indrukwekkend stuk technologie. Je zou bijna kunnen veronderstellen dat er empathie, begrip, menselijkheid en magie in zit. Behalve dat dit dialoogvenster dat ik net heb gelezen niets te maken heeft met ChatGPT. Ik geef toe: ik heb je in de val gelokt, of in ieder geval geprobeerd.
Want de dialoog van zojuist stamt uit 1966. Om preciezer te zijn , uit de krant “ELIZA – een computerprogramma voor het onderzoeken van natuurlijke taalcommunicatie tussen mens en machine” van Joseph Weizenbaum. Weizenbaum deed op dat moment onderzoek aan het Massachusetts Institute of Technology, en al in 1966 waarschuwde hij dat “de aura van magie” uit de chatbot moest worden verdreven omdat het slechts een computerprogramma was.
De uitstraling van magie
Dat lukte nauwelijks. Zelfs experts waren destijds gefascineerd door ELIZA en schreven vergelijkbare capaciteiten toe aan de chatbot als ChatGPT vandaag heeft. Technologisch bevinden deze twee chatbots zich in een andere klasse. Maar cultureel horen ze bij elkaar. Want “de aura van magie” die Weizenbaum meer dan een halve eeuw geleden bij ELIZA waarnam, maakt weer naam. En het domineert het publieke debat over zogenaamde kunstmatige intelligentie.
De Amerikaan Sam Altman staat aan het hoofd van OpenAI, het inmiddels miljardenbedrijf achter ChatGPT. Als gast op een podcast eerder dit jaar zei Altman : “Ik haat het om als een of andere utopische techbroer te klinken.” Om dan maar te zeggen:
“We kunnen de wereld geweldig maken, en we kunnen het leven van mensen geweldig maken. We kunnen ziektes genezen. We kunnen materiële welvaart vergroten. We kunnen mensen helpen een gelukkiger en meer vervuld leven te leiden.”
In dit citaat is het heel duidelijk, de “aura van het magische”. Het bevat een soms utopisch, soms dystopisch verhaal van kunstmatige intelligentie dat ook zijn stempel drukt op de politiek en de media. SPIEGEL-columnist Sascha Lobo schreef over “misschien wel de krachtigste technologie aller tijden “, Europarlementslid en digitaal politica Alexandra Geese van de Groenen spraken over AI als ” wonderhulpmiddelen en -systemen uit de hel “, aldus heise online.
Het hype-theater
Het woord “helsystemen” behoort tot de dystopische kant van het verhaal. Dit verhaal culmineerde tot nu toe eind mei in een claim ondertekend door een aantal AI-professionals uit de industrie en de academische wereld. Onder hen OpenAI-baas Sam Altman. De bewering was, vrij vertaald: AI zou de mensheid kunnen wegvagen, het gevaar is vergelijkbaar met dat van een pandemie of een nucleaire oorlog.
In de soms dystopische, soms utopische verhalen zie ik wat waarschijnlijk de meest ingenieuze marketingcampagne van het jaar is . Het verhaal van de redding of vernietiging van de mensheid beperkt het debat tot een of/of-vraag: brengt AI enorm veel geluk of enorme terreur? Alle andere nuances verdwijnen naar de achtergrond. En de vraag hoeveel van de hype slechts gebakken lucht is.
Het Duden-woordenboek definieert het woord hype als volgt: “Deception geënsceneerd om redenen van publiciteit”. En precies zo’n productie, een theater, is de huidige AI-hype als er gebruik wordt gemaakt van utopische en dystopische narratieven.
Het hype theater begeleidt een race om marktmacht in innovatieve AI-systemen. Microsoft heeft tien miljard dollar geïnvesteerd in het bedrijf OpenAI van Sam Altman. Als je miljarden wilt binnenhalen, moet je investeerders overtuigen van je eigen relevantie. En waarschijnlijk creëert niets meer relevantie dan het verhaal van het einde van de wereld. Hoe krachtiger, veelbelovender en gevaarlijker de technologie lijkt, hoe meer geld eraan te verdienen is.
Het iPhone-moment
In deze lezing ga ik het hebben over de gevaren van nieuwe soorten AI-systemen, maar ik doe niet mee aan het hype-theater. De verhalen over de mogelijke ondergang van de mensheid, over denken, voelen of mensachtige AI, de belofte van verlossing van alwetende machines, dat vind ik allemaal fout. In plaats daarvan zal ik in totaal tien problemen beschrijven van momenteel gehypte AI-systemen, die volgens mij de focus zouden moeten zijn.
Het is een lezing tegen het hype theater. Maar het is geen lezing die kunstmatige intelligentie bagatelliseert. AI-systemen die vrij beschikbaar zijn op internet en op commando afbeeldingen of tekst genereren, zijn een opmerkelijke doorbraak. De release van deze systemen voor tientallen miljoenen gebruikers is historisch en ik zie het als een potentieel iPhone-moment . De eerste iPhone in 2007 markeerde de overgang van oude naar moderne mobiele telefoons. Tegenwoordig hebben we bijna allemaal zulke handcomputers met aanraakschermen die ons uitgebreide toegang geven tot diensten op internet.
Evenzo kan de release van ChatGPT in 2022 een verschuiving markeren. Van oude tot moderne chatbots. Van een tijd waarin de meeste teksten en opnames op het web kant-en-klaar waren tot een tijd waarin verrassend veel content nieuw werd gegenereerd.
Nummer 1: Marketing
Het eerste van tien problemen met momenteel gehypte AI-systemen is geworteld in de pure woorden die we gebruiken. Kunstmatige intelligentie, of kortweg AI, is een brede verzamelterm voor toepassingen die grote hoeveelheden data aan elkaar relateren en op basis daarvan antwoorden berekenen. De gehypte dienst ChatGPT doet het met woorden . Het rijgt aan elkaar wat volgens de trainingsgegevens goed bij elkaar past, en zorgt zo voor overtuigend klinkende teksten. Op deze manier zijn ChatGPT (en vergelijkbare chatbots) de meest geavanceerde autocomplete-systemen die tot nu toe zijn ontwikkeld.
Maar: Chatbots zoals ChatGPT zijn niet alles. Spamfilters in onze e-mailinboxen, spraakherkenning als we opdrachten geven aan Siri of Amazon Echo worden ook wel AI genoemd; Gezichtsherkenning bij de controle van identiteitskaarten op de luchthaven, en nog veel meer.
Toch wordt de indruk versterkt dat AI vooral de technologie achter ChatGPT beschrijft. Dit maakt deel uit van de overdrijving en enscenering voor publiciteitsdoeleinden. Chatbots zijn slechts een van de vele vormen van zogenaamde AI; ze zijn niet de hoogste, belangrijkste, machtigste of gevaarlijkste. Experts noemen de technologie achter ChatGPT ook wel “Large Language Models “ . Behalve dat de term “grote taalmodellen” niet zo goed is om indruk te maken op klanten en investeerders als de term “kunstmatige intelligentie”.
De sporen van marketingcampagnes lopen door het hele AI-discours. De academische munt van de term AI was al op de markt. Hiervoor reizen we even terug in het verleden, 68 jaar terug.
Het is de zomer van 1955. De Amerikaanse computerwetenschapper John McCarthy doet samen met vele anderen onderzoek naar gegevensverwerking. Een van hen is de cyberneticus Norbert Wiener, en zoals soms het geval is in onderzoek: McCarthy wil niet alleen in de voetsporen van Wiener treden, nee, hij wil lauweren verzamelen voor iets van hemzelf. McCarthy kreeg het briljante idee toen hij het jaar daarop een aanvraag voor een onderzoeksworkshop schreef. In de aanvraag noemde McCarthy zijn onderzoek niet cybernetica of futuristische dataverwerking, maar – je raadt het al – kunstmatige intelligentie.
McCarthy schreef later : “De term werd gekozen om de vlag aan de paal te spijkeren.”
De term ‘kunstmatige intelligentie’ was een roekeloze zet van de baas, een marketingtruc die nog steeds werkt sinds 1955. McCarthy kreeg toen het geld voor zijn werkplaats en de term kan vandaag de dag nog steeds geld opleveren. Het meest indrukwekkende voorbeeld is de $ 10 miljard voor Sam Altman’s bedrijf OpenAI – dat, let wel, niet “Open Large Language Model” wordt genoemd. Naast OpenAI zijn er nog andere start-ups die geld inzamelen voor hun AI-producten. Het is een goudkoortssfeer die Silicon Valley al een tijdje niet meer heeft gezien .
Het probleem: marketingtermen vertroebelen het zicht op wat er werkelijk gebeurt. Als zowel onderzoekers als ondernemers eigenbelang kunnen hebben in de overdrijving van een technologie, hoe moeten leken dat dan bijhouden? Mijn maatstaf tegen het marketingprobleem is om de term AI niet lichtvaardig te gebruiken, en wanneer het gepast is om de profane termen te gebruiken: ChatGPT als een chatbot, tekstgenerator, autocomplete-systeem.
Probleem 2: humanisering
Het tweede van de tien problemen is geworteld in het gevoel dat een term als ‘kunstmatige intelligentie’ onvermijdelijk bij ons oproept: humanisering.
Hiervoor maken we een reis door de tijd, deze keer gaat het zelfs 207 jaar terug. Namelijk in 1816, toen de Duitse schrijver ETA Hoffmann een horrorverhaal publiceerde: ” The Sandman “. Het verhaal gaat over Nathanael die verliefd wordt op Olimpia. Maar Olympia is geen mens. Volgens het boek is ze een “automatische machine”; vanuit het perspectief van vandaag zou je kunnen zeggen: een pop of een robot. Dit is hoofdpersoon Nathanael echter niet duidelijk, aangezien hij Olimpia door het raam door een verrekijker observeert. Hoffmann beschrijft de scène als volgt:
“Olimpia zat zoals gewoonlijk voor het tafeltje, haar armen erop rustend, haar handen gevouwen. Nathanael had eerder opgemerkt dat ze prachtig was gegroeid in de meest pure symmetrie, maar had nog nooit zo naar haar volledig mooi gevormde gezicht gekeken als nu. Alleen zijn ogen leken vreemd star en doods voor hem, maar de manier waarop hij steeds scherper keek, was alsof er vochtige manestralen in Olimpia’s ogen opstegen. Het leek alsof de kracht van het gezichtsvermogen nu pas werd ontstoken, de ogen begonnen steeds levendiger te gloeien. Nathanael lag betoverd in het raam en keek weg en weg naar de hemelse schoonheid van Olimpia.
Dit fragment uit “The Sandman” beschrijft archetypisch wat er misgaat met moderne chatbots van ELIZA tot ChatGPT. Nathanael ziet een machine en denkt dat het een mens is. Dit antropomorfiseringsprobleem is een direct gevolg van de ‘aura van magie’ die door Joseph Weizenbaum werd bekritiseerd, en het is geen toeval dat Nathanaël ‘betoverd’ is in het verhaal van Hoffmann.
Maar de indruk van menselijke gelijkenis is niets meer dan een projectie. Zoals de zon alleen maar haar licht op de maan werpt, zo richt Nathanaël in het verhaal zijn verlangen op Olimpia. Hoffmann suggereert precies dat wanneer hij de gloed van Olimpia’s ogen vergelijkt met “manestralen”. Wat Nathanaël in Olimpia ziet, is niets anders dan een weerspiegeling van hemzelf. Op deze manier is het de blik van Nathanaël die de vermeende aanblik in Olimpia’s ogen “ontsteekt”.
Nathanael heeft duidelijk ook een probleem met voyeurisme. Een feministische interpretatie van de zogenaamde mannelijke blik in “The Sandman” zou een onderwerp zijn voor een andere lezing.
Hoe dan ook, meer dan 200 jaar na de publicatie van “The Sandman” kijkt zelfs een Google-ingenieur Olimpia te diep in de ogen. Vorig jaar meent de Amerikaan Blake Lemoine gevoelens en een bewustzijn te herkennen in LaMDA. LaMDA is de ChatGPT-concurrent van Google. Lemoine vergelijkt LaMDA met een zeven- of achtjarig kind – en wordt vervolgens ontslagen bij Google . Op dit moment verdient het bedrijf Luka Inc. al lang geld met een chatbot genaamd Replica , die op de markt wordt gebracht als een “metgezel”. Voor veel gebruikers dient replica als vervanging voor een platonische of romantische vriend.
Wie kan ons mensen kwalijk nemen dat we onze levenloze omgeving graag als levend beschouwen. We schilderen smileys op spiegels bedekt met condens en glimlachen terug. We zien een knobbelige tomaat en vinden: hij heeft een neus. We lopen langs een plank met knuffels in het warenhuis, pluizige beren met glimmende wiebeloogjes, en we denken: Aww. Ik denk niet dat we daarmee moeten stoppen, en ik denk ook niet dat we dat kunnen doen.
Onze neiging om te vermenselijken wordt fataal wanneer we schijn voor feit verwarren. Moderne chatbots zijn niet intelligent, ook al noemen we ze “kunstmatige intelligentie”. Ze kunnen niet denken, begrijpen, waarnemen en hallucineren. Wat ze wel kunnen, is rekenen. Zij berekenen een output op basis van onze input en hun trainingsgegevens. Verrassend vaak vinden we deze uitvoer nuttig en zelfs intelligent – maar dat is dan alleen onze mening, onze projectie in de ogen van Olimpia.
In een inmiddels wereldberoemd artikel omschrijven onder meer taalkundige Emily Bender en computerwetenschapper Timnit Gebru grote taalmodellen als “stochastische papegaaien”. Stochastisch omdat ze hun antwoorden berekenen, papegaaien omdat ze woorden reproduceren zonder de inhoud echt te begrijpen. Ik vind de vergelijking maar ten dele juist, omdat papegaaien, in tegenstelling tot chatbots, wezens met gevoel zijn.
Een chatbot daarentegen is geen wezen, geen expert die ik kan vertrouwen, hoe groot de database ook is en hoe overtuigend de antwoorden ook klinken. In de antwoorden van een chatbot kan elk detail fout zijn en moet dit afzonderlijk worden geverifieerd. Daarom zet ik moderne chatbots niet in voor specialistische onderwerpen, niet voor onderzoek, niet voor samenvattingen.
Het komt neer op één simpele vraag: heb ik de tijd en expertise om elk detail van de chatbotreactie zelf te controleren en te corrigeren? Is het antwoord ja, dan kan ik ChatGPT gebruiken, bijvoorbeeld als ik suggesties wil voor creatieve bewoordingen. Als het antwoord nee is, moet ik wegblijven van ChatGPT.
Probleem 3: Mediageletterdheid
En dat brengt ons bij het derde van de tien problemen die momenteel worden gehypt door AI-systemen. Mediageletterdheid is de beste verdediging tegen desinformatie en online fraude. Maar ChatGPT en beeldgeneratoren zijn zeer goede hulpmiddelen voor desinformatie en online zwendel.
Met desinformatie bedoel ik inhoud die bedoeld is om ons te beïnvloeden met politieke interesse en, in het ergste geval, ons misleidt tot het nemen van slechte stembeslissingen. Voorbeeld: de verkiezing van een rechtse partij. Met online zwendel bedoel ik inhoud die bedoeld is om ons te beïnvloeden met commerciële belangen en, in het ergste geval, ons te misleiden tot het nemen van een verkeerde aankoopbeslissing. Voorbeeld: een voorschot voor een zogenaamd bomvrije crypto-investering.
Het ambacht achter desinformatie en online fraude is zelfs zonder moderne chatbots al erg geavanceerd. De acteurs spelen al jaren een kat-en-muisspel. Hun tegenstanders zijn bijvoorbeeld de politie en de beveiligingsteams van online platformen.
Misdaad en propaganda op internet werken op een flexibele, innovatieve en collaboratieve manier . Acteurs wissen hun sporen uit, verzenden geautomatiseerde e-mails, sms-berichten en reacties op sociale media, doorzoeken databases met gelekte wachtwoorden, kapen e-mailinboxen en -accounts van banken, streamingproviders en socialemediaplatforms. Ze gebruiken ook gepolijste en gepersonaliseerde inhoud. Er zijn phishingmails die mijn naam, mijn geboortedatum en de naam van mijn bank bevatten. Er zijn valse nieuwsberichten die treffend de toon van een legitieme redactie nabootsen. Daarnaast zijn er verontrustende foto’s die brutaal uit hun verband zijn gerukt of met beeldverwerking zijn gemanipuleerd.
Dit en meer kan nog beter worden gemaakt met ChatGPT en beeldgeneratoren. Oplichters proberen keer op keer gesprekken met hun slachtoffers te voeren om geld van hen af te persen. Dit is waarschijnlijk gemakkelijker dan ooit met ChatGPT.
Hetzelfde geldt voor nepnieuwsberichten. Binnen enkele minuten kan één persoon een hele blog vullen met inhoud die redelijk solide aanvoelt. Veel actoren leren elkaar op relevante fora bijvoorbeeld hoe ze automatisch accounts kunnen hacken. ChatGPT zou hier ook moeten helpen, omdat de chatbot programmacode kan genereren en op fouten kan controleren. En in maart ging paus Franciscus op de foto met een bijna opwindend modieus donsjackde ronde, AI gegenereerd. Veel waarnemers zagen dit als een voorbode van veel misleidende inhoud in de toekomst.
Ik denk echter dat de focus op deze puur technologische kant verkeerd is. Of ik de pausfoto nu manipuleer met Microsoft Paint, Photoshop of de beeldgenerator DALLE-2; of ik de phishing-e-mail nu ontwerp met papier, Libre Office of ChatGPT – desinformatie en online fraude richten zich nog steeds op onze menselijke zwakheden, onze goedgelovigheid. Ik denk dat daar in de eerste plaats de beschrijving van het probleem moet beginnen.
Phishingmails van vermeende minnaars* die dringend een paar honderd euro moeten worden overgemaakt, worden alleen gepakt omdat zoveel mensen eenzaam zijn en graag geloven in de beloften van oplichters. Desinformatie over vluchtelingen die vermeende misdaden plegen, slaat alleen maar aan omdat zoveel mensen hun eigen racisme niet willen afleren en de haatzaaiende uitingen van populisten graag geloven. Desinformatie en online fraude zijn minder technologische problemen dan maatschappelijke problemen, minder problemen van AI dan van mediageletterdheid.
Probleem 4: Snel bewegen
Tot 2014 was het motto van Facebook “move fast and break things”. Snel zijn en daarbij dingen breken, is de moeite waard voor iedereen die sterk is, en in onze samenleving zijn dit voornamelijk rijke, blanke mannen in het Globale Noorden. Er gebeurt niets anders in de race om marktmacht in moderne AI-systemen.
In haar boek Race After Technology beschrijft socioloog Ruha Benjamin ‘snel handelen en dingen breken’ als een dominant ethos in de technologie-industrie. Ze schrijft verder, door mij uit het Engels vertaald:
“Hoe zit het met de mensen en plaatsen die tijdens het proces kapot gaan? Inwoners van Silicon Valley die ontheemd raakten door stijgende woonlasten, of Amazon-magazijnmedewerkers die gedwongen werden om hun toiletpauzes over te slaan en in flessen te plassen.”
Evenzo betoogt Brandeis Hill Marshall in haar boek Data Conscience wanneer ze schrijft: “De mantra ‘beweeg snel en breek dingen’ blijft mensen breken.”
Met ChatGPT als voorbeeld ziet het er zo uit: Terwijl Sam Altman in korte tijd een van de belangrijkste techmanagers is geworden en wereldwijd staats- en regeringsleiders de hand schudt, werken slechtbetaalde arbeiders achter de schermen aan de vermeende kunstmatige intelligentie om Ga zo door.
Dat klopt: het zijn mensen die chatbots in de eerste plaats mogelijk maken. Ze zouden enkele traumatiserende teksten moeten lezen en markeren om services zoals ChatGPT minder giftig te maken. Je uurloon: vaak een paar euro. Uw werkplek: landen waar dergelijke banen tegen dumpprijzen beschikbaar zijn. Uit onderzoek van Time Magazine bleek begin dit jaar dat arbeiders uit Kenia zich inspanden voor ChatGPT.
Mary Gray en Siddharth Suri hebben hun eigen boek over het probleem geschreven. ” Spookwerk “:
“Het mensenwerk achter veel mobiele apps, websites en AI-systemen is vaak moeilijk te zien – het is zelfs met opzet verborgen. Wij noemen deze ondoorzichtige kosmos van werkgelegenheid: spookwerk.”
Naarmate OpenAI snel beweegt, gaan er meer dingen stuk. OpenAI heeft ooit besloten om helemaal geen winst te maken en alle resultaten van zijn eigen werk openlijk met de wereld te delen. Dat was gisteren. Tegenwoordig mag OpenAI winst maken en houdt het geheimen . Met zijn nieuwste taalmodel, GPT-4, onthult OpenAI niet eens de oorsprong van de trainingsgegevens .
In feite gebruiken technologiebedrijven gegevens van internet om hun chatbots te trainen, bijvoorbeeld: Wikipedia, nieuwssites, discussies op Reddit. Of dat verenigbaar is met het auteursrecht – ik ben geneigd ja te zeggen , maar ik ben geen jurist – moet de rechter later beslissen.
OpenAI wil ook vaak lezen wat de miljoenen mensen chatten met ChatGPT om zo de chatbot verder te verbeteren. Als iemand privégegevens invoert in het chatvenster: pech. Bij twijfel wordt het taalmodel ook verder getraind met deze data. Hoe dat te verenigen is met een goede gegevensbescherming – ik neig ertoe nee te zeggen , maar ik ben geen jurist – rechters zullen dan later uitsluitsel geven.
En meer pauzes. In maart ontsloeg Microsoft medewerkers die zouden moeten zorgen voor het ethisch gebruik van AI-systemen, eerder had Google AI-ethici ontslagen .
Nee, technologiebedrijven hoeven niet noodzakelijkerwijs afstand te doen van ethiek en transparantie, van gegevensbescherming en auteursrecht, van eerlijke lonen en respect voor hun eigen gebruikers. Er zitten bewuste keuzes achter, en die keuzes zijn vaak slecht. In de huidige race om de marktmacht van moderne AI-systemen is het motto: “move very fast”, en bij twijfel: “break many things”.
Nummer 5: Kracht
Het ging over de kracht van mensen die het zich kunnen veroorloven om snel te gaan en dingen kapot te maken. AI-systemen herbergen het gevaar deze machtspositie te ondersteunen. Een hele reeks beslissingen met betrekking tot AI-systemen volgen en consolideren sociale machtsstructuren. Het begint ermee dat ChatGPT natuurlijk voornamelijk in het Engels wordt ontwikkeld en eerst als commercieel product.
Amerikaanse bedrijven met winstoogmerk bepalen hoe chatbots worden gebouwd, welke gegevens erin gaan, voor wie ze worden geoptimaliseerd, wie zich zelfs toegang kan veroorloven, waar vooringenomenheid zorgvuldig wordt beteugeld – en waar niet.
Een voorbeeld uit het verleden illustreert het probleem. Facebook gebruikt wereldwijd duizenden contentmoderators en AI-herkenningssystemen. Mensen bekijken door AI gegenereerde verdachte meldingen van haat en aanzetten tot haat. Ze verwijderen onder andere oproepen tot genocide.
Dit werkt waarschijnlijk het beste in het Engels – het werkt het slechtst in minder bekende talen. Zo spraken in 2015 slechts twee contentmoderators Birmaans op Facebook. Juist deze taal was nodig om haat en haatdragende taal tegen de islamitische Rohingya-minderheid in Myanmar te beteugelen. In 2017 was er een genocide tegen de Rohingya: duizenden werden gedood en meer dan een miljoen sloeg op de vlucht. Vertegenwoordigers van Rohingya klaagden later Facebook aan. De beschuldiging: medeplichtigheid aan genocide.
In 2021 citeerde The Washington Post een intern bericht van een Facebook-manager: “De pijnlijke realiteit is dat we niet de hele wereld met hetzelfde niveau van steun kunnen bestrijken.”
Ik denk dat het woord “kan” op dit moment schandalig is. Hier zit geen natuurwet achter, maar een beslissing. Het lijkt erop dat Facebook zijn AI-systemen niet specifiek in het Birmaans had getraind, noch genoeg personeel had ingehuurd om de verdachte gevallen te controleren.
In Data Conscience schrijft Brandeis Hill Marshall, door mij vertaald: “Sommige groepen zijn schromelijk oververtegenwoordigd in de data-industrie, veel groepen zijn gemarginaliseerd en sommige groepen komen helemaal niet opdagen.” Over de representatie van gemarginaliseerde groepen in de trainingsdata en in de finetuning van ChatGPT kan ik op dit moment alleen maar speculeren. De gloednieuwe chatbot kan echter nauwelijks worden gepolijst en gebalanceerd.
ChatGPT is bijzonder goed, niet alleen in het Engels, maar ook in het maken en controleren van programmacode . Geen wonder dat de machtige mensen achter ChatGPT tenslotte zelf programmeurs zijn. Ik denk niet dat het op zich een probleem is als rijke blanke tech bros een krachtige chatbot bouwen die speciaal is geoptimaliseerd voor rijke blanke tech bros. Maar het is een probleem als die chatbot een van de weinige en een van de krachtigste is. En het feit dat ik zelf een rijke, blanke techneut ben, maakt deze talk er eerlijk gezegd niet beter op, vanuit een mondiaal perspectief.
Probleem 6: knelpunt
We komen bij het zesde probleem van momenteel gehypte AI-systemen. Het gaat hier om het bundelen van krachten in één of enkele bedrijven. Als zwaargewichten als ChatGPT zich eenmaal op de markt hebben gevestigd, is er bijna geen ontkomen meer aan. Integendeel: vanaf nu is het verrassend moeilijk om zonder deze zwaargewichten te doen. Ze vormen een knelpunt.
Veel bedrijven integreren momenteel chatbots zoals ChatGPT in hun diensten met behulp van een programmeerinterface . OpenAI hoeft niet te gaan om zo snel mogelijk winst maken. Het gaat erom dat je jezelf onmisbaar maakt, dat je de standaard wordt. Zoveel mogelijk bedrijven en gebruikers zouden zich moeten binden aan ChatGPT. En dan kun je nog nadenken over hoe je op een dag geld kunt verdienen zonder durfkapitaal.
ChatGPT volgt daarmee de typische ontwikkeling van platformen . Spotify is de standaard geworden voor het streamen van muziek, Facebook is al lang de standaard voor sociale netwerken, Google is de standaard geworden voor zoekmachines. Hoe meer gebruikers een platform heeft, hoe meer gebruikers het aantrekt. Dit soort positieve zelfversterking wordt het netwerkeffect genoemd en het is wat OpenAI bijvoorbeeld zijn krachtige knelpuntpositie geeft.
In zijn boek ” The Power of Platforms ” beschrijft de cultuurwetenschapper Michael Seemann onder andere dergelijke knelpuntposities als een aspect van platformmacht. In het geval van OpenAI manifesteert deze kracht zich als volgt: Het bedrijf bepaalt hoeveel geld andere bedrijven moeten betalen om ChatGPT in hun diensten te integreren. En OpenAI bepaalt welke regels ze moeten volgen.
Je kunt dit voor goede doeleinden gebruiken, bijvoorbeeld: De chatbot mag geen instructies geven over het bouwen van bommen. Maar het kan ook voor slechte doeleinden worden gebruikt, bijvoorbeeld: de chatbot mag geen informatie verstrekken over het onderwerp abortus. Dit voorbeeld is helemaal niet vergezocht, abortussen zijn nu immers strafbaar in sommige Amerikaanse staten en online platforms censureren relevante inhoud .
Zonder de bottleneckpositie van ChatGPT zouden dit soort problemen niet half zo erg zijn. Als u het niet eens bent met de beslissing van een bedrijf, moet u naar de wedstrijd gaan. Maar dit is precies waar het probleem ligt. Platforms streven naar een oligopolie, d.w.z. een markt die gedomineerd wordt door enkele reuzen. Dat betekent: bij twijfel kunnen reuzen met veel vrijheid hun prijzen zelf bepalen. En als het om inhoudsbeleid gaat, kunnen reuzen de grenzen van sociale taboes naar hun zin verleggen.
Probleem 7: Betaal eigen vermogen
Ik durf te zeggen dat niemand van ons vandaag met een paardenkoets is gekomen. Sommige beroepen sterven uit naarmate de technologie voortschrijdt. Dat is tragisch voor veel mensen, misschien is het jammer van de traditie – maar het is het verstrijken van de tijd. Er is geen fundamenteel recht om een verouderd beroep in leven te houden. Op het veel geciteerde verhaal dat AI onze banen afpakt, ga ik hier dan ook niet in. In ieder geval niet zonder ze binnenstebuiten te keren. Ik veroordeel geen probleem op de werkplek, maar een probleem met gelijke beloning.
Een eerlijk loon betekent: ik krijg een goed loon voor goed werk. Veel geld voor veel moeite. Zelfs zonder moderne chatbots zijn de lonen niet eerlijk. Vrouwen krijgen minder loon dan mannen. Veel van de moeilijkste banen worden het slechtst betaald. Ik geloof dat moderne chatbots dit probleem kunnen versterken. Ze kunnen worden gebruikt als hulpmiddelen voor een rechtvaardige beloning. Ik wil dit graag illustreren met een voorbeeld.
In de VS biedt de National Eating Disorders Association (NEDA) al geruime tijd een hotline aan voor mensen met eetstoornissen. Toen de werknemers probeerden een ondernemingsraad op te richten, werden ze ontslagen. Een chatbot moet voortaan advies geven. Maar eetstoornissen zijn ernstige ziekten. De begeleiding is veeleisend: medisch, mentaal en sociaal. Daar is een chatbot niet goed in. Het kan zelfs de getroffenen schaden. In dit specifieke geval zou de chatbot de getroffenen hebben geadviseerd om calorieën te tellen. Een paar dagen later schakelden de verantwoordelijken de chatbot uit .
Nee, kunstmatige intelligentie heeft de banen van de consultants niet weggenomen. Het waren werkgevers die kunstmatige intelligentie gebruikten als excuus om mensen te ontslaan.
Het voorbeeld is extreem. Het had ook zo kunnen gaan: de chatbot zou in gebruik blijven, maar een groep betaalde medewerkers zou de reacties van de chatbot controleren. Ze zouden uitzoeken wanneer de chatbot onzin beantwoordt en ze zouden antwoorden ontgrendelen die in orde zijn. Men zou van deze werknemers lagere kwalificaties verwachten en ze zouden minder betaald krijgen, dumpinglonen.
In dit scenario zou het geld als volgt worden verdeeld: De aanbieder van de chatbot zou licentiekosten ontvangen. Om de chatbot überhaupt te kunnen exploiteren, zou deze aanbieder nog steeds onderbetaalde arbeidskrachten in dienst nemen in lagelonenlanden. De hotline zou op zijn beurt ook onderbetaalde werknemers in dienst nemen die chatbot-antwoorden sorteren voor mensen die hulp zoeken. Het komt erop neer dat één speler in het bijzonder een goed salaris krijgt: het bedrijf dat licentiegelden voor de chatbot int.
Ik ben bang dat dat precies is wat we op veel gebieden gaan doen. Werkgevers zullen AI gebruiken als excuus om van redelijk solide banen laagbetaalde banen te maken. Er zit een flauwe redenering achter. Waarom zou werken met AI-systemen minder loon waard zijn? Meredith Whittaker is een AI-onderzoeker en voorzitter van de non-profit Signal Foundation. In haar toespraak op de re:publica-conferentie in Berlijn dit jaar zei ze :
“De degradatie van arbeiders komt niet van systemen die hen daadwerkelijk kunnen vervangen. Integendeel, ze hebben al effect als mensen ertoe worden gebracht te geloven dat dergelijke systemen werknemers kunnen vervangen. En door de mensen die met de systemen moeten werken te bestempelen als laaggeschoold, wat een laag loon rechtvaardigt.”
De wetenschapper Milagros Miceli betoogt op dezelfde manier. Ze leidt een team bij het Berlin Weizenbaum Institute en doet al jaren onderzoek naar het werk achter AI-systemen. In een interview met netzpolitik.org zei ze over het werk van mensen die chatbots trainen zoals ChatGPT in lagelonenlanden :
“De arbeiders verzamelen veel expertise. Zij zijn de experts als het gaat om het rechtstreeks omgaan met gegevens, omdat ze er dagelijks mee te maken hebben. Niemand heeft het vak beter bestudeerd, zelfs de ingenieurs niet.”
En toch krijgen ze een extreem mager loon. Omdat veel bedrijven elke gelegenheid aangrijpen om de lonen onder druk te zetten, en omdat vakbonden eerst voet aan de grond moeten krijgen in deze nieuwe industrieën. Verrassing: het is niet de AI die goede lonen bedreigt, maar het ongebreidelde kapitalisme.
Probleem 8: padafhankelijkheid
Het achtste van tien problemen draait om een technische term die ik kort moet toelichten. In de sociale wetenschappen beschrijft padafhankelijkheid een eigenschap van beslissingen. Het idee hierachter is dat beslissingen aan elkaar gekoppeld zijn. De ene stap leidt naar de volgende.
Ik ben zo goed als vrij om te beslissen waar ik morgen wil gaan wandelen. Maar mijn beslissing om te gaan wandelen wordt grotendeels beïnvloed door waar ik woon. Zeer onwaarschijnlijk vlieg ik naar Madeira voor een simpele wandeling. Aan de andere kant was ik vrij om te beslissen waar ik woonde, maar dat was lang geleden en wandelmogelijkheden waren onbelangrijk voor de beslissing.
Dit voorbeeld toont enkele eigenschappen van padafhankelijkheid. Het beïnvloedt veel beslissingen, groot en klein, die misschien pas jaren later duidelijk worden. Het beperkt de kosmos van het mogelijke tot een spectrum van het waarschijnlijke. Dit kan veiligheid creëren, maar het kan ook een last zijn. Sommige ogenschijnlijk kleine beslissingen bepalen de wegen van ons leven met verstrekkende gevolgen: Latijn of Engels als eerste vreemde taal; studeren of stage lopen; naar links of rechts swipen op Tinder?
AI-systemen zoals ChatGPT specificeren ook paden. Chatbots die in zoekmachines zijn ingebouwd, kunnen bepalen welke delen van de wereld ons het eerst worden bediend. Bij medische diagnoses of juridische rapportages kunnen chatbots bepalen met welke gegevens een specialist als eerste aan de slag gaat. Hier wordt vaak gezegd: de uiteindelijke beslissing moet altijd door de mens worden genomen. Ik ben het ermee eens, maar dat ontslaat ons niet van de risico’s van padafhankelijkheid. Want als een chatbot eerst een beslissing neemt, dan bepaalt deze chatbot het pad.
Chatbotbeslissingen worden op hun beurt bepaald door padafhankelijkheden die verborgen blijven. Welke trainingsgegevens zijn opgenomen? Welke vervormingen zijn achteraf bewerkt en welke niet? Zijn antwoorden gegenereerd door een chatbot wel wat doorslaggevend zou moeten zijn voor een beslissing?
Chatbots kunnen een infrastructuur worden, d.w.z. een organisatorisch fundament waar we niet verder over nadenken. De mediacultuurwetenschapper Gabriele Schabacher schrijft over infrastructuren , ze zijn elke dag beschikbaar, ze worden als vanzelfsprekend beschouwd en ze worden “genaturaliseerd” door een soort collectief vergeten. Dat wil zeggen, ze worden onbetwiste delen van de omgeving.
Concreet voorbeeld: Als ik in de stad rijd, vraag ik me nooit af waarom deze weg uitgerekend hier een bocht maakt. Iemand heeft de weg aangelegd en nu accepteer ik het net zo goed als de zwaartekracht.
Met ChatGPT is het niet zo ver. Moderne chatbots zijn nog geen infrastructuur geworden, de collectieve vergetelheid is nog niet begonnen. Het kan in korte tijd te laat zijn en de verwildering van infrastructuur doet ons vergeten dat achter chatbots beslissingen zitten die ons kunnen schaden. Op dit moment dringen chatbots ons dagelijks leven binnen. Dit is het moment om nee te zeggen tegen de beslissingen achter chatbots.
Probleem 9: Langetermijndenken
Ik kon het voorlaatste van de tien problemen van momenteel gehypte AI-systemen nauwelijks geloven. Omdat het zo absurd klinkt. Rijke leiders van de huidige AI-hype zijn bezweken voor een volledig maf scifi-verhaal. En ze maken hun ingrijpende beslissingen ervan afhankelijk.
Dit verhaal heet Longtermism, en het gaat als volgt: de mensheid zou er nu alles aan moeten doen om in de zeer verre toekomst het grootst mogelijke geluk te bereiken. Klimaatverandering, fascisme, oorlog, ontheemding en honger – vanuit het oogpunt van langetermijndenken is dit allemaal niet belangrijk. Het is bijvoorbeeld belangrijk dat de mensheid de opkomst van een machine-superintelligentie, een macht die alles zou kunnen vernietigen, moet voorkomen. En: de mensheid zou moeten leren om andere planeten te koloniseren, want de aarde zal niet eeuwig bestaan.
Dat klinkt mij in de oren als een fantasie uit een beschermde jeugd; ontwikkeld tijdens het spelen met Lego-ruimteschepen . Theorieën over het ontstaan van een superintelligentie zijn hoogst speculatief , ze overtuigen mij niet. De existentiële bedreiging van de beschaving door de klimaatcrisis daarentegen is een feit. En naar schatting zullen er vijf miljard jaar verstrijken voordat onze zon een supernova wordt.
Langetermijndenken is het perfecte excuus voor rijke blanke elitaire mannen om hun rijke blanke elitaire mannenprojecten met een zuiver geweten voort te zetten – en hun machtspositie te verstevigen. Alles voor een betere toekomst met in de hoofdrol rijke, blanke, elite mannen.
Ik ben niet de enige die dat zo ziet. AI-onderzoeker Timnit Gebru omschreef langetermijndenken onlangs als ” bullshit “. Als een manier waarop miljardairs elkaar geruststellen dat ze de wereld een betere plek maken. In een essay beschrijft Gebru minder polemisch hoe het verhaal van langetermijndenken AI-bedrijven helpt de huidige problemen in hun AI-systemen te bagatelliseren.
Miljardair Elon Musk, die uitgerekend aan een Mars-missie werkt, en OpenAI-baas Sam Altman worden beïnvloed door langetermijndenken . Een pionier van het langetermijndenken is de Zweedse filosoof Nick Bostrom.
In 2002 publiceerde hij een essay over ” existentiële risico’s “, waarin hij schreef: “Momenteel lijkt er op sommige plaatsen een negatieve correlatie te bestaan tussen intellectuele prestaties en vruchtbaarheid.” Bostrom fantaseert over het gebruik van genetische manipulatie om mensen mentaal en “gezonder” te maken. fysiek.
De filosoof beschrijft duidelijk een misantropisch wereldbeeld dat mensen waardeert op basis van fysieke of mentale kenmerken. Bovendien is Bostrom van mening dat genen een centrale rol spelen bij dergelijke eigenschappen. Deze manier van denken, bekend als “eugenetica”, werd in de nationaal-socialistische rassentheorie gebruikt om genocide te rechtvaardigen.
Trefwoord genocide: In een interview met netzpolitik.org legde de filosoof Émile P. Torres uit waarom ook hij langetermijndenken als gevaarlijk beschouwt :
“De geschiedenis staat vol met voorbeelden van utopische bewegingen die allerlei gruwelijke gewelddaden pleegden, zoals terrorisme en genocide, om hun utopie te bereiken. Langetermijndenken heeft alles in zich waardoor utopische bewegingen in het verleden wrede maatregelen konden rechtvaardigen.”
Ik zou graag willen weten hoe het wereldbeeld van langetermijndenken concrete zakelijke beslissingen van OpenAI beïnvloedt, diensten zoals ChatGPT. Ik heb in ieder geval een heel slecht gevoel als zo’n belangrijke technologie afkomstig is van mannen die zich bij twijfel niet bekommeren om het leed van miljoenen mensen.
Probleem 10: Tunnelvisie
We zijn zo diep in het onderwerp gedoken dat het tijd is om onze horizon te verbreden. Het tiende en laatste probleem van de huidige AI-hype noemde ik het tunnelvisieprobleem. Terwijl het grootste deel van het huidige AI-debat zich richt op chatbots, komen andere AI-kwesties op de achtergrond.
Camera’s in de stad zouden verdachte bewegingspatronen vastleggen . Software op de personeelsafdeling zou slechte applicaties opsporen . Computerprogramma’s zouden de politie moeten vertellen waar zogenaamd criminelen wonen. Leugendetectors aan de buitengrenzen van de EU zouden moeten vaststellen of asielzoekers de waarheid spreken . Autopiloten zijn ontworpen om gewapende drones te besturen voordat ze vermeende vijanden opblazen .
Dit zijn de AI-problemen van nu. Ze beïnvloeden het lot van mensen, ze veroorzaken schade. Niet in een speculatieve sci-fi toekomst, maar nu. Chatbots zijn slechts één gebied van zogenaamde kunstmatige intelligentie. Ze zijn niet het gebied dat me het meeste zorgen baart. Toch is het leerzaam om met chatbots om te gaan, want de omgang ermee is exemplarisch voor de algemene omgang met AI-systemen. De basis zijn vaak opgeblazen verwachtingen van de mogelijkheden van technologie.
Het tunnelvisie-achtige geloof dat technologie altijd de oplossing is, noemt de Amerikaanse journalistieke onderzoeker Meredith Broussard tech chauvinisme in haar boek Artificial Unintelligence . Ze schrijft, vrij vertaald door mij:
“Techchauvinisme gaat vaak hand in hand met […] het idee dat computers ‘objectiever’ of ‘onbevooroordeelder’ zijn omdat ze vragen en antwoorden reduceren tot wiskundige evaluaties; met de onwankelbare overtuiging dat als de wereld maar meer computers zou gebruiken en ze op de juiste manier zouden gebruiken, sociale problemen zouden verdwijnen en we een digitale utopie zouden creëren. Dat is niet waar. Er is nog nooit een technologische uitvinding geweest die ons verlost van sociale problemen, en die zal er ook nooit komen.”
Dit citaat levert het materiaal voor de conclusie van mijn lezing. Het onderwerp AI nodigt uit om maatschappelijke problemen eerst technologisch te beschrijven en deze vervolgens technologisch op te willen lossen. Ik heb de indruk dat het AI-debat zelf “gefixeerd” is door de gloed in Olimpia’s ogen. Ik pleit daarom voor een draai van 180 graden, dat wil zeggen: technologische problemen op een sociale manier beschrijven en op een sociale manier willen oplossen.
Je zou kunnen tegenwerpen dat dit slechts woorden zijn, maar ik zie het anders. Tech-chauvinisme baant een weg waar maatschappelijke problemen onopgemerkt kunnen blijven rotten terwijl uitbuitingsomstandigheden consolideren. We volgen dit pad en bespreken schijnoplossingen zoals watermerken voor AI-producten in plaats van te kijken naar een enorm probleem zoals loongelijkheid. Maar het concept van padafhankelijkheid laat zien dat de ene beslissing tot de volgende leidt, en zelfs een andere omschrijving van het probleem kan ernstige gevolgen hebben. Het is een verschil dat we zelf kunnen maken, hier en nu.