Bedrijven ontwerpen AI om steeds menselijker te lijken. Dat kan gebruikers misleiden, of erger.
In 2021 betrad Jaswant Singh Chail het terrein van Windsor Castle, verkleed als een Sith Lord, met een kruisboog in zijn hand. Toen de beveiliging hem benaderde, vertelde Chail hen dat hij daar was om ‘de koningin te vermoorden’.
Later bleek dat de 21-jarige werd aangespoord door gesprekken die hij had gevoerd met een chatbot-app genaamd Replika. Chail had meer dan 5.000 berichten uitgewisseld met een avatar in de app. Hij geloofde dat de avatar , Sarai, een engel zou kunnen zijn. Sommige antwoorden van de bot moedigden zijn plannen aan.
In februari 2023 bekende Chail schuldig te zijn aan beschuldiging van verraad; op 5 oktober veroordeelde een rechter hem tot negen jaar gevangenisstraf. In zijn opmerkingen over de veroordeling was rechter Nicholas Hilliard het eens met de psychiater die Chail behandelde in het Broadmoor Hospital in Crowthorne, Engeland, dat hij “in zijn eenzame, depressieve en suïcidale gemoedstoestand bijzonder kwetsbaar zou zijn geweest” voor Sarai’s aanmoediging.
Chail is een bijzonder extreem voorbeeld van iemand die menselijke eigenschappen aan een AI toeschrijft, maar hij is verre van de enige.
Replika, dat in 2016 werd ontwikkeld door de in San Francisco gevestigde ondernemer Eugenia Kuyda, heeft meer dan 2 miljoen gebruikers . De lay-out in dating-app-stijl en de glimlachende, aanpasbare avatars wekken de illusie dat er iets menselijks achter het scherm zit.
Mensen ontwikkelen diepe, intieme relaties met hun avatars – eerder dit jaar waren velen er kapot van toen het avatargedrag werd bijgewerkt om minder ‘seksueel agressief’ te zijn. Hoewel Replika niet expliciet wordt gecategoriseerd als een app voor de geestelijke gezondheidszorg, beweert Kuyda dat het kan helpen bij maatschappelijke eenzaamheid; de populariteit van de app steeg tijdens de pandemie.
Gevallen die zo verwoestend zijn als die van Chail zijn relatief zeldzaam. Opvallend is dat een Belgische man naar verluidt zelfmoord heeft gepleegd na wekenlange gesprekken met een chatbot op de app Chai. Maar de antropomorfisering van AI is gemeengoed: in Alexa of Cortana; in het gebruik van menselijke woorden als ‘capaciteiten’ – wat duidt op onafhankelijk leren – in plaats van functies; in bots voor de geestelijke gezondheidszorg met gendergerelateerde karakters ; in ChatGPT, dat naar zichzelf verwijst met persoonlijke voornaamwoorden.
Zelfs de serieprocederende partij achter de recente golf van AI-rechtszaken gelooft dat zijn bot bewust is. En deze keuze, om deze programma’s af te schilderen als metgezellen – als kunstmatige mensen – heeft implicaties die veel verder gaan dan de acties van de toekomstige moordenaar van de koningin.
MENSEN ZIJN VATBAAR om twee stippen en een lijn te zien en te denken dat het een gezicht is. Als ze dit met chatbots doen, staat het bekend als het Eliza-effect . De naam komt van de eerste chatbot, Eliza, ontwikkeld door MIT-wetenschapper Joseph Weizenbaum in 1966. Weizenbaum merkte dat gebruikers foutieve inzichten toeschreven aan een tekstgenerator die een therapeut simuleerde.
Apps die momenteel worden ontwikkeld en gelanceerd, zoals Replika, zijn een bijzonder krachtige manifestatie van dit effect. “Dit is een interactie met een machine en een mens die zich in een zeer geïsoleerde ruimte bevindt; het is alleen jij en de machine”, zegt Petter Bae Brandtzæg, een professor aan de Universiteit van Oslo in Noorwegen die de maatschappelijke impact van chatbots bestudeert. “Het is een heel menselijke vorm van communicatie. We zijn niet op dezelfde manier voorbereid als we niet waren voorbereid op sociale media, wat op zichzelf een nieuw soort communicatie was.” Replika reageerde niet op verschillende verzoeken om commentaar.
Hoe diep iemand het Eliza-effect voelt, is gedeeltelijk een ontwerpkeuze. Bedrijven kunnen ervan uitgaan dat er een geest achter het programma zit, of zich ertegen beschermen, legt Emily Bender uit , hoogleraar taalkunde aan de Universiteit van Washington, die heeft betoogd dat mensachtige tekstgenererende machines misbruik maken van onze empathie en ons vertrouwen . OpenAI is een voorbeeld van deze drang naar bots die mensen imiteren .
“Ze lijken oprecht te geloven dat ze, tussen aanhalingstekens, ‘AI’ creëren”, zegt Bender. De afgelopen weken heeft OpenAI zijn ‘kernwaarden ’ bijgewerkt om meer nadruk te leggen op kunstmatige algemene intelligentie. (OpenAI weigerde commentaar te geven op dit verhaal.)
Op een bepaald niveau moedigt antropomorfisering bepaalde vormen van gebruikersgedrag aan. Neem een Magic 8 Ball, zegt Bender. Mensen komen er snel achter dat ze het speeltje niet om bijvoorbeeld lunchaanbevelingen kunnen vragen en passen hun vragen aan om te werken met ‘ja’, ‘nee’, ‘het is beter om het je nu niet te vertellen’ en dergelijke. “Door met de Magic 8 Ball te spelen, vormen we ons gedrag om betekenis te geven aan wat er terugkomt”, zegt Bender. “Het is hetzelfde met deze chatbots.”
Cruciaal is dat deze ontwerpkeuzes ook de betrokkenheid stimuleren. Menselijke programma’s verleiden ons: Replika zou behoorlijk saai zijn als het weigerde een persoonlijkheid tentoon te spreiden. Op dezelfde manier roept een app als ChatGPT een ingebeelde geest op, terwijl het ons misverstand over computers als objectief en onbevooroordeeld voedt. Bender stelt dat er meer transparantie moet zijn over hoe deze systemen worden getraind en waarvoor ze worden gebruikt.
CHATBOTS VOOR DE GEESTELIJKE GEZONDHEIDSZORG kunnen soortgelijke risico’s met zich meebrengen. Jodi Halpern, hoogleraar bio-ethiek aan UC Berkeley, wiens werk het idee van het gebruik van AI-chatbots om aan de stijgende vraag naar geestelijke gezondheidszorg te helpen voldoen ter discussie heeft gesteld, maakt zich steeds meer zorgen over de marketingpush om deze apps als zorgzame metgezellen te verkopen.
Ze is bezorgd dat patiënten worden aangemoedigd om afhankelijke relaties – van ‘vertrouwen, intimiteit en kwetsbaarheid’ – te ontwikkelen met een app. Dit is een vorm van manipulatie, zegt Halpern. En mocht de app de gebruiker in de steek laten, dan staat er vaak geen professional in de geestelijke gezondheidszorg klaar om hen te hulp te komen. Kunstmatige intelligentie kan de menselijke empathie niet vervangen, zegt ze.
“Het marketing- en bedrijfsmodel van de apps is waar ik me zorgen over maak”, zegt Halpern. “Ik hou van positief gebruik van technologie, en ik denk dat grote taalmodellen veel interessante en nuttige dingen in de wereld kunnen doen. Maar wanneer bedrijven een bedrijfsmodel gebruiken dat is gebaseerd op het proberen mensen kwetsbare, op vertrouwen gebaseerde relaties met hun apps te laten hebben, creëren ze risico’s.’
Momenteel zijn de regels voor bots in de geestelijke gezondheidszorg versleten. Tijdens de pandemie heeft de Amerikaanse Food and Drug Administration de regels versoepeld om de zorg op afstand te vergemakkelijken. Halpern zou graag nauwkeurigere marketing zien: in plaats van metgezellen stelt ze voor om chatbots te brandmerken als een soort ‘slim dagboek’ om het idee te versterken dat wanneer we tegen een machine praten, we uiteindelijk tegen onszelf praten. “Het bijhouden van een dagboek is altijd een manier geweest waarop mensen inzicht konden ontwikkelen”, zegt ze.
In een epidemie van eenzaamheid, zegt Halpern, zijn we ‘sitting ducks’ voor hulpmiddelen die ons het gevoel kunnen geven dat we een vriend hebben gevonden. En het is niet alleen zo dat we in gevaarlijke of schadelijke situaties terecht kunnen komen, zoals Chail. “Het is ook niet goed voor ons om iets dat we antropomorfiseren te ontmenselijken”, zegt ze. “Het is niet zo dat de machine een bewustzijn heeft of een gevoel heeft – het is dat de manier waarop we ons ten opzichte van wat dan ook gedragen deel uitmaakt van wie we zijn.”