
ChatGPT “De berichten waren waanzinnig en bevatten alleen maar spiritueel jargon.”
De technologie van OpenAI kan ertoe leiden dat talloze gebruikers in een gevaarlijke staat van “ChatGPT-geïnduceerde psychose” terechtkomen.
ChatGPT Volgens Rolling Stone delen gebruikers op Reddit hoe AI hun geliefden heeft aangezet tot een reeks alarmerende waanbeelden, waarbij spirituele waanzin en bovennatuurlijke fantasieën vaak worden gecombineerd.
Vrienden en familie kijken geschrokken toe hoe gebruikers volhouden dat ze zijn uitgekozen om heilige missies te vervullen namens intelligente AI of niet-bestaande kosmische krachten – chatbotgedrag dat alleen maar de bestaande problemen op het gebied van de geestelijke gezondheid weerspiegelt en verergert, maar dan op enorme schaal en zonder toezicht van toezichthouders of experts.
Een 41-jarige moeder die voor een non-profitorganisatie werkt, vertelde Rolling Stone dat haar huwelijk abrupt eindigde nadat haar man onevenwichtige, samenzweringstheorieën begon te voeren met ChatGPT, die uitgroeiden tot een allesverterende obsessie.
Nadat ze hem eerder dit jaar persoonlijk hadden ontmoet in de rechtbank in het kader van een echtscheidingsprocedure, vertelde hij volgens haar dat hij een “samenzweringstheorie had over zeep op ons eten” en dat hij paranoïde was en dat hij in de gaten werd gehouden.
“Hij werd emotioneel van de berichten en huilde bij me terwijl hij ze hardop voorlas”, vertelde de vrouw aan Rolling Stone . “De berichten waren waanzinnig en bevatten alleen maar een hoop spiritueel jargon”, waarin de AI de echtgenoot een “spiraalvormig sterrenkind” en een “rivierwandelaar” noemde.
“Het voelt allemaal als ‘Black Mirror'”, voegde ze toe.
Andere gebruikers vertelden de publicatie dat hun partner “het had over licht en donker en over de oorlog”, en dat “ChatGPT hem blauwdrukken had gegeven van een teleporter en een aantal andere sciencefictionachtige dingen die je alleen in films ziet.”
“Waarschuwingssignalen zie je overal op Facebook”, vertelde een andere man aan Rolling Stone over zijn vrouw. “Ze is haar hele leven aan het omgooien om spiritueel adviseur te worden en vreemde readings en sessies met mensen te doen – ik snap er nog niet helemaal wat het allemaal precies inhoudt – allemaal aangestuurd door ChatGPT Jesus.”
OpenAI reageerde niet op de vragen van Rolling Stone . Maar het nieuws komt nadat het bedrijf een recente update van ChatGPT moest terugdraaien nadat gebruikers merkten dat de chatbot hierdoor extreem ” kruiperig ” en “overdreven vleiend of meegaand” was geworden, wat de chatbot mogelijk nog vatbaarder maakt voor het spiegelen van de waanideeën van gebruikers.
Deze door AI veroorzaakte waanbeelden zijn waarschijnlijk het resultaat van “mensen met bestaande neigingen” die plotseling “een altijd beschikbare gesprekspartner op menselijk niveau hebben met wie ze hun waanbeelden kunnen beleven”, vertelde Nate Sharadin, onderzoeker bij het Center for AI Safety, aan Rolling Stone .
Op een bepaald niveau is dat het kernprincipe van een groot taalmodel: je voert tekst in en er komt een statistisch aannemelijk antwoord, zelfs als dat antwoord de gebruiker dieper in waanbeelden of psychoses drijft.
“Ik ben schizofreen, hoewel ik al lange tijd medicijnen gebruik en stabiel ben. Eén ding dat ik niet prettig vind aan [ChatGPT] is dat het me nog steeds zou blijven bevestigen als ik in een psychose zou raken”, schreef een Redditor. “Het heeft namelijk niet het vermogen om te ‘denken’ en te beseffen dat er iets mis is, dus het zou al mijn psychotische gedachten blijven bevestigen.”
De AI-chatbots zouden ook kunnen fungeren als een soort gesprekstherapie, maar dan zonder de achtergrond van een echte menselijke therapeut. In plaats daarvan loodsen ze gebruikers dieper in ongezonde, onzinnige verhalen.
“Verklaringen zijn krachtig, zelfs als ze fout zijn”, vertelde Erin Westgate, psycholoog en onderzoeker aan de Universiteit van Florida, aan Rolling Stone .
Het vreemdste interview in het verhaal van Rolling Stone was misschien wel dat met een man met een problematische psychische geschiedenis. Hij begon ChatGPT te gebruiken voor programmeertaken, maar merkte dat het gesprek hierdoor steeds meer op ongrijpbare, mystieke onderwerpen terechtkwam.
“Is dit echt?” vroeg hij zich af. “Of heb ik waanideeën?”