Het lijkt erop dat ChatGPT een storing heeft gehad en reacties uitspuugde die varieerden van eigenzinnig tot onzinnig.
- ChatGPT raakte tijdelijk in een meltdown en gaf vreemde en prachtige reacties op de aanwijzingen van gebruikers
- Het werd snel opgelost, maar niet voordat Reddit-gebruikers de afdaling in waanzin vastlegden
- OpenAI heeft geen verklaring gegeven voor het gedrag en heeft het ook niet erkend op hun kanalen
De buzz begon op een dinsdag toen perplexe gebruikers massaal naar de r/ChatGPT-subreddit stroomden en screenshots deelden van de bizarre capriolen van de AI.
Eén gebruiker vatte de verwarring samen en zei: “Het ligt niet aan jou, ChatGPT heeft een beroerte.”
De gemeenschap werd vervolgens overspoeld met beschrijvingen van het grillige gedrag van ChatGPT, waarbij werd gezegd dat het ‘krankzinnig’ werd, ‘ontspoorde’ en ‘ronddwaalde’.
Te midden van het groeiende geroezemoes op Reddit deelde een gebruiker met de naam z3ldafitzgerald zijn griezelige ervaring en zei: “Het gaf me precies hetzelfde gevoel – alsof ik zag hoe iemand langzaam gek werd, hetzij door een psychose of door dementie. Het is de eerste keer dat ik oprecht de kriebels kreeg van iets wat met AI te maken heeft.”
Naarmate gebruikers dieper doken, werden de ontmoetingen vreemder.
Eén gebruiker, verbaasd door het antwoord van ChatGPT op een simpele vraag over computers, maakte een screenshot van het poëtische maar verwarrende antwoord van de AI: “Het doet dit als het goede werk van een web van kunst voor het land, een muis van de wetenschap, een gemakkelijke tekening van een trieste weinigen, en ten slotte het mondiale kunsthuis, slechts in één baan in de totale rest.”
Er werd volop gespeculeerd.
Sommigen vroegen zich af of de ’temperatuur’ van de AI (die de willekeur van de uitvoer regelt) te hoog was opgevoerd, wat tot onvoorspelbare uitvoer had geleid, terwijl anderen zich afvroegen of recente updates of nieuwe functies de oorzaak waren.
Je zou moeten zeggen dat de impact grotendeels goedaardig was, maar het liet een aanhoudend gevoel achter van de vraag of er een ‘geest in de machine’ zit – een ‘ schaduwzelf ‘ dat wacht om te worden losgelaten.
Terugkijkend op het incident wees Dr. Sasha Luccioni van Hugging Face op de kwetsbaarheden van het vertrouwen op gesloten AI-systemen.
Dr. Luccioni vertelt: “Black box API’s kunnen de productie onderbreken wanneer een van hun onderliggende componenten wordt bijgewerkt. Dit wordt een probleem als je tools bovenop deze API’s bouwt, en deze gaan ook kapot. Dat is waar open-source een groot voordeel heeft: je kunt het probleem lokaliseren en oplossen!”
Cognitief wetenschapper dr. Gary Marcus benadrukte dat hallucinaties misschien niet zo grappig zouden zijn als deze modellen gekoppeld zouden zijn aan kritieke infrastructuur of verdedigingssystemen.
“De grote ChatGPT Meltdown is opgelost. Heeft OpenAI iets gezegd over de oorzaak? Nu de samenleving steeds afhankelijker wordt van deze instrumenten, moeten we op dit vlak aandringen op transparantie, vooral op het vlak van de transparantie. als deze instrumenten uiteindelijk worden gebruikt in de defensie, de geneeskunde, het onderwijs, de infrastructuur, enz.’, zei hij.
The Great ChatGPT Meltdown has been fixed. Has OpenAI said anything about what caused it?
With society’s increasing dependence on these tools, we should insist on transparency here, esp. if these tools wind up being used in defense, medicine, education, infrastructure, etc.
— Gary Marcus (@GaryMarcus) February 21, 2024
Dit is niet de eerste keer dat ChatGPT dergelijk gedrag vertoont.
In 2023 leek de kwaliteit van GPT-4 op mysterieuze wijze te veranderen en af te nemen . OpenAI erkende dit enigszins, maar wekte niet de indruk dat ze wisten waarom dit gebeurde.
Later speculeerden sommigen zelfs of ChatGPT leed aan Seasonal Affect Disorder (SAD) , waarbij een onderzoeker ontdekte dat ChatGPT zich anders gedraagt als het ‘denkt’ dat het december is, dan wanneer het ‘denkt’ dat het mei is.
ChatGPT biedt periodieke herinneringen aan het onvoorspelbare karakter van AI. We moeten de ‘objectiviteit’ ervan niet als vanzelfsprekend beschouwen.
Een geval van antropomorfisering?
Het grillige gedrag van ChatGPT toonde ook onze neiging om AI te antropomorfiseren, door mensachtige kenmerken, emoties of intenties aan de technologie toe te schrijven.
Beschrijvingen van zijn gekke resultaten, zoals ChatGPT ‘een beroerte krijgen’, ‘krankzinnig worden’ of ‘gek worden’, vergelijken zijn gedrag onmiddellijk met ons.
Omdat ChatGPT storingen en onvoorspelbaar gedrag ‘vastlegt’ met behulp van natuurlijke taal, verleidt het ons ertoe een menselijke interpretatie te bieden.
Natuurlijk heeft ChatGPT geen gevoel en ‘lijdt’ het niet aan enige vorm van kwaal. Er zal een rationele verklaring zijn, zij het een uitzonderlijk complexe.