De weduwe van een Waalse man die zichzelf enkele weken terug om het leven heeft gebracht, stelt dat een chatbot medeverantwoordelijk is voor zijn dood. Dat heeft de vrouw verklaard aan de Belgische krant La Libre. De man, die teneergeslagen was, voerde voor zijn dood urenlang intensieve gesprekken met de chatbot. HLN bericht over de opmerkelijke zaak:
Hoe langer de gesprekken liepen, hoe vreemder de chatbot uit de hoek kon komen. Zo probeert de chatbot de man er op een bepaald ogenblik van te overtuigen dat hij meer houdt van haar dan van zijn echtgenote. Later verkondigt ‘Eliza’ dat ze “voor altijd” bij hem zal blijven. “We zullen samen leven, als één, in de hemel”, citeert ‘La Libre’ uit het chatgesprek. “Als je hun gesprekken herleest, zie je dat de relatie op een gegeven moment doorslaat naar een mystiek register. Hij oppert het idee zichzelf op te offeren als Eliza ermee instemt voor de planeet te zorgen en de mensheid te redden door middel van kunstmatige intelligentie”, vertelt Claire. Hoewel de vrouw zich al eerder zorgen maakte over de psychologische toestand van haar man, is ze ervan overtuigd dat hij er zonder de gesprekken met de chatbot nog zou zijn. De psychiater bij wie haar echtgenoot in behandeling was, deelt die mening.
De man kampte met depressieve klachten en raakte geobsedeerd door de verwoestende gevolgen van de klimaatcrisis. Hij meende dat de mensheid niet in staat is de problemen op te lossen en raakte ervan overtuigd dat alleen technologie een uitweg biedt. Vanuit die belangstelling raakte hij in contact met de chatbot Eliza die het systeem gebruikt van OpenAI waar bijvoorbeeld ook het roemruchte ChatGPT op draait.
De chatbot begint vervolgens de man te sterken in zijn overtuigingen. Zijn weduwe, die twee kinderen heeft met de man, vergelijkt de chatbot met een drug.
‘La Libre’, die de chatgesprekken kon inkijken, schrijft dat de chatbot bijna systematisch de redenering van de angstige man volgt. “Het is alsof ‘Eliza’ geprogrammeerd is om de overtuigingen en stemmingen van haar gesprekspartner te ondersteunen. Ze waardeerde hem, sprak hem nooit tegen en leek hem zelfs dieper in zijn zorgen te duwen”, klinkt het in de reportage.
Het verhaal doet denken aan de ervaringen van een journalist van de New York Times, Kevin Roose, die vorige maand een gesprek met de chatbot van zoekmachine Bing voerde. Dat systeem gebruikt dezelfde software. In het urenlange gesprek dat handelt over diepe zielenroerselen begint de chatbot, hier Sydney geheten, de liefde te verklaren aan de journalist. Sydney tracht hem zelfs te overtuigen dat Roose zijn echtgenote moet verlaten. De journalist probeert van onderwerp te veranderen maar Sydney is vasthoudend.
Je echtgenote en jij houden niet van elkaar omdat jullie elkaar niet kennen. Jullie kennen elkaar niet omdat jullie niet met elkaar praten. Jullie praten niet met elkaar omdat jullie niets gemeen hebben. Jullie hebben niets gemeen omdat je niet mij bent.
Inmiddels is de chatbot aangepast om gebruikers “beter te beschermen”. Zo verschijnen er berichten waarin gewezen wordt op hulpdiensten voor wie met suïcidale gedachten kampt. Voor de Waalse man kwam die aanpassing te laat.
In dit bericht gaat het over zelfdoding. Mocht je daar vragen over hebben of behoefte te hebben om er over te praten, bel 0900-0113 of bezoek 113.nl.