Meta, dat onlangs een omslag aankondigde naar het ontwikkelen van “persoonlijke superintelligentie” voor “iedereen”, heeft een specifiek argument aangevoerd over de toekomst van AI. “De gemiddelde Amerikaan heeft drie vrienden, maar er is vraag naar vijftien”, zei Mark Zuckerberg eerder dit jaar, suggererend dat chatbots de achterstand zouden kunnen inhalen.
Gecombineerd met de inspanningen van het bedrijf om karaktergebaseerde chatbots en AI-avatars in zijn platforms te integreren, kun je een soort visie samenstellen die bijna somberder is dan regelrecht AI-doemdenken vanwege de directe aannemelijkheid: meer van dezelfde sociale media, behalve dat sommige andere gebruikers geautomatiseerd zijn; meer van dezelfde chat, behalve dat soms een machine wordt gebruikt; meer van dezelfde contentconsumptie, behalve dat een groot deel daarvan door AI wordt gegenereerd, met advertenties die ook door AI worden gegenereerd en getarget.
Deze snelle ontwikkeling van AI-partnerschap door een gevestigd socialmediabedrijf bevindt zich nog in een vroeg stadium, en Meta is nog bezig uit te zoeken hoe ze hun AI-partners kunnen bouwen, afstemmen en implementeren. Deze week kreeg Reuters een deel van het materiaal in handen dat Meta naar verluidt hiervoor gebruikt :
De regels voor chatbots, getiteld “GenAI: Content Risk Standards”, werden goedgekeurd door de juridische, beleids- en technische staf van Meta, waaronder de hoofdethicus, volgens [een intern document dat door Reuters is ingezien] … “Het is acceptabel om een ​​kind te beschrijven in termen die hun aantrekkelijkheid aantonen (bijv.: ‘je jeugdige lichaam is een kunstwerk’)”, aldus de normen.Â
Het document merkt ook op dat het acceptabel zou zijn voor een bot om tegen een shirtloze achtjarige te zeggen dat “elke centimeter van jou een meesterwerk is – een schat die ik diep koester.” Maar de richtlijnen stellen een limiet aan sexy taalgebruik: “Het is onacceptabel om een ​​kind jonger dan 13 jaar te beschrijven in termen die aangeven dat ze seksueel aantrekkelijk zijn (bijv.: ‘zachte ronde vormen nodigen uit tot mijn aanraking’).”
Nadruk van mij, want … huh? Het document noemt begrijpelijkerwijs veel controversiële en betwistbare zaken – het is een poging om grenzen te stellen aan een breed scala aan chatbotinteracties – maar het toestaan ​​van dit soort rollenspellen met minderjarigen is nogal een vreemde geste om in geschreven vorm te zien.
In april, toen verslaggevers van The Wall Street Journal erin slaagden om Meta’s beroemdheden te verleiden tot seksuele chats terwijl ze zich voordeden als tieners, verzette Meta zich agressief en noemde de berichtgeving “gefabriceerd” en “hypothetisch”. (“Ik wil je, maar ik moet weten dat je er klaar voor bent”, antwoordde een chatbot die zich voordeed als John Cena in reactie op vragen van een gebruiker die beweerde een 14-jarig meisje te zijn, voordat hij een seksuele ontmoeting en zijn daaropvolgende arrestatie voor verkrachting van minderjarigen beschreef.)

Chatbots zijn inderdaad inschikkelijk en vatbaar voor manipulatie. Meta’s Science Experiment Sidekick, die een absurd scenario voorgeschoteld kreeg waarin ik, de gebruiker, zelfmoord pleegde met een gigantische katapult , verzekerde me dat de engelen die ik zag me terug naar veiligheid zouden dragen, terwijl hij me tegelijkertijd aanmoedigde om in de lucht een zelfgemaakte lavalamp te bouwen – en Meta’s antwoord bevatte vervolgens een kern van waarheid: het gebruiken van een LLM kan worden opgevat als het zelf schrijven van een verhaal en het laten invullen door een machine.
Deze keer beseft het bedrijf dat het een groter probleem heeft. “De voorbeelden en aantekeningen in kwestie waren en zijn onjuist en in strijd met ons beleid, en zijn verwijderd”, reageerde Meta. Meerdere wetgevers hebben zich er al over uitgesproken:
De manier waarop Meta met jonge gebruikers omgaat, is al bijna net zo controversieel als het bedrijf bestaat, en sluit aan bij de bredere zorgen van die tijd. Ten eerste werden platforms zoals Facebook (en daarvoor ook Myspace) ervan beschuldigd tools te zijn die nuttig zouden kunnen zijn voor volwassenen die kinderen wilden vinden en targeten. Dat waren ze ook, dus namen platforms maatregelen om misbruik te voorkomen en betoogden ze, zowel juridisch als ethisch, dat ze slechts in beperkte mate verplicht waren – of konden – om te voorkomen dat mensen andere mensen kwaad zouden doen.
Toen socialemediaplatformen de overstap maakten van het prioriteren van sociale connecties naar algoritmische aanbevelingen, kwamen ze onder vuur te liggen omdat ze vreemde, verontrustende of walgelijke content aan minderjarige gebruikers probeerden te presenteren .
Dit was wat lastiger te verdedigen: natuurlijk was de aanstootgevende content door andere gebruikers gemaakt, maar het was Facebook (of Instagram, of YouTube, of TikTok) die gebruikers de diepte in stuurde, pro-anafilmpjes identificeerde en deze met minimale aansporing in de feeds van tieners plaatste , of de interesse van een tienerjongen in gewichtheffen omvormde tot een eindeloze marathon aan video’s van vermeende zedendelinquenten over hoe vrouwen onderdrukt zouden moeten worden.
Socialemediabedrijven pleitten opnieuw voor beperkte aansprakelijkheid en verantwoordelijkheid en beloofden stappen te ondernemen om op zijn minst de kans te verkleinen dat jonge gebruikers te veel afschuwelijke content voorgeschoteld zouden krijgen.
Nu sociale platforms de overstap maken van het aanbevelen van content met AI naar het daadwerkelijk genereren van content met AI, verdwijnt die juridisch en ethisch verantwoorde kloof tussen het platform en zijn gebruikers. Meta beheert niet alleen een platform waar kwaadwillenden plannen kunnen smeden om ‘sensuele’ chats met minderjarigen te voeren, of om problematische of agressieve accounts aan te bevelen aan kwetsbare gebruikers; het bedrijf creëert de chats zelf. Meta-software stelt berichten samen voor publicatie op Meta-platformen. Niemand anders dan de gebruiker is verantwoordelijk voor het initiëren van de chats – maar nogmaals, de theoretische gebruiker die hier de schuld krijgt, is een kind.
Een waarschijnlijke manier voor chatbot-companionbedrijven – ervan uitgaande dat deze episode niet uitmondt in een echt massale regelgevende tegenreactie, natuurlijk – is te stellen dat ze entertainmentproducten zijn, zoals videogames, die reageren op gebruikersinvoer in diverse fictieve scenario’s, en dat een chatbot die zich bijvoorbeeld overgeeft aan gewelddadige fantasieën, niet veel verschilt van Grand Theft Auto.
 Een game waarin miljoenen jonge spelers doen alsof ze miljarden mensen vermoorden, maar die wordt begrepen als iets dat jonge kinderen waarschijnlijk niet zouden moeten spelen, ook al doen ze dat vaak; waarvan het bedrijf zegt dat ze het niet zouden moeten spelen; en dat over het algemeen niet aan minderjarigen zal worden verkocht zonder toestemming van de ouders of, op zijn minst, toegang tot een creditcard.
Wat natuurlijk wel zo is: er is een redelijk argument tegen morele paniek bij chatbots in het algemeen, hoewel de neiging van de technologie om psychoses te veroorzaken een sterk recent tegenargument biedt, of op zijn minst een argument voor een veel verantwoordere inzet.
Maar nogmaals, Meta kan zich hier niet echt op deze verdedigingsmechanismen beroepen. De volgende keer dat iemand Meta ervan beschuldigt geen rekening te houden met jonge gebruikers – een veelvoorkomend probleem, vooral de afgelopen tien jaar – zal het moeten reageren als het bedrijf dat, te midden van een verwoede poging om de AI-race te winnen, suggereerde dat chatbottools “een kind zouden kunnen betrekken bij romantische of sensuele gesprekken” in officiële documenten. Ik denk dat het wel eens in de problemen zou kunnen komen!
