De CEO van X beweerde dat zijn repost van een AI deepfake over Kamala Harris een ‘parodie’ was. Hij weet wel beter.
Elon Musk deelt een deepfake, bewijst dat hij een grote nep is
Musk deelde die deepfake video vervolgens met zijn 191 miljoen volgers zonder de moeite te nemen om te benadrukken dat de advertentie deepfake was. In plaats daarvan reageerde hij simpelweg met: “Dit is geweldig” en een lachende emoji.
Hoewel het originele bericht niet in strijd was met de regels van Twitter, was de repost dat wel.
“Je mag geen synthetische, gemanipuleerde of uit de context gehaalde media delen die mensen kunnen misleiden of verwarren en tot schade kunnen leiden (‘misleidende media’)”, aldus de regels van Twitter .
Als je ziet dat Musks deepfake bericht niet is verwijderd of niet op de juiste manier is gelabeld, lijken die regels niet op de baas te gelden. Dit voedt de zorgen dat de rechtse miljardair het platform voor zijn eigen politieke doeleinden gebruikt.
Maar dat was nog niet alles voor Musk, die ooit op hilarische wijze de New York Times voor de gek hield door hem te laten geloven dat hij iets anders was dan een ultraconservatieve tech-bro.
Zijn ware politieke voorkeuren waren het hele weekend duidelijk zichtbaar.
Hij deelde de laatste klacht van Republikeinen die geloven dat Google een zoekverbod heeft ingesteld op “President Donald Trump” (een probleem dat we niet konden dupliceren op meerdere apparaten in verschillende landen) en suggereerde dat dit “verkiezingsinmenging” zou kunnen zijn.
Afgelopen vrijdagavond besloot Elon Musk, de Donald Trump-aanhanger van X, een deepfake-video van de vermoedelijke Democratische presidentskandidaat Kamala Harris opnieuw te posten, waarin de vicepresident zegt dat ze een “diversiteitsaanwinst” is en “helemaal niets weet over het besturen van het land”. De maker van de video bevestigde aan Associated Press dat hij een AI-spraaksynthesetool heeft gebruikt om de audio in een politieke advertentie van Harris te manipuleren.
Mensen die dit soort deepfake dingen maken en posten, beweren vaak dat het bedoeld was als parodie of satire, vormen van politieke uitingen die beschermd zijn. En inderdaad, de maker van de deepfake nepvideo van Harris noemde het “Kamala Harris Campaign Ad PARODY”, maar Musks repost bevatte die tekst niet. Nadat mensen erop begonnen te wijzen dat de repost van de video de communityrichtlijnen van X schond, verschuilde Musk zich achter het “parodie”-verweer, zelfs nadat hij dat label van de deepfake die hij repostte had verwijderd.
Niet veel redelijke mensen zouden geloven dat de stem in de advertentie die van Harris was. Ze zou zulke dingen nooit zeggen. Maar als de eigenaar van een groot sociaal platform zijn eigen communityrichtlijnen negeert en een niet-gelabelde AI deepfake opnieuw post naar zijn miljoenen volgers, dan geeft dat een boodschap af: Deepfakes zijn oké en communityrichtlijnen zijn verwaarloosbaar.
En verwacht niet dat regelgevers dit element van de misinformatieoorlog gaan bestrijden. “Het zal extreem moeilijk zijn om AI te reguleren tot het punt waarop we video’s als de recente van vicepresident Harris die op X werd gedeeld, kunnen vermijden”, zegt John Powers, een media- en designprofessor aan de Quinnipiac University. “[E]r zou een sterkere push moeten zijn om sociale media-geletterdheid te introduceren bij jonge studenten als een manier om ervoor te zorgen dat de volgende generatie ijverig is in het onderzoeken van informatie en nieuws wanneer het op hun sociale feeds terechtkomt.”
Musks repost is vooral pijnlijk als je je de redenen herinnert die hij gaf om Twitter in de eerste plaats te kopen. Twitter werd beschouwd als het “stadsplein” voor open discussie, vooral over politieke onderwerpen. Musk vond dat het een plek was die werd gedomineerd door een “woke” mentaliteit en intolerant was voor “conservatieve” standpunten, zoals blijkt uit het verbod van het netwerk in 2022 op de rechtse christelijke parodiesite Babylon Bee . Hij zei in een TED-interview dat hij van Twitter een “platform voor vrije meningsuiting over de hele wereld” wilde maken en noemde vrije meningsuiting een “maatschappelijke noodzaak voor een functionerende democratie”.
Is de Harris deepfake Musk’s idee van “vrije meningsuiting?” De man begrijpt AI; hij bezit en houdt toezicht op een miljardenbedrijf in AI (xAI). Hij plaatste vrijwillig desinformatie voor zijn 190 miljoen volgers en toen hij werd uitgedaagd, verdubbelde hij zijn inzet met een nogal slappe “parodie”-verdediging. Musk ontkent nu dat hij ooit heeft gezegd dat hij de Trump-campagne $ 45 miljoen per maand zou geven, maar hij gebruikt nog steeds zijn X-platform om campagne te voeren voor Trump, inclusief Trumps favoriete valuta: BS.
Hoe een nieuw tijdperk van hypergepersonaliseerde AI-politieke advertenties zou kunnen werken
Deepfakes zijn niet de enige manier waarop AI een verkiezing serieus kan beïnvloeden. Merkmarketeers en politieke strategen worden al lang aangetrokken door de mogelijkheid om advertenties te maken die op maat zijn gemaakt voor één specifieke doelgroep in plaats van een heel demografisch segment. Zo’n advertentie kan een weerspiegeling zijn van inzicht in de demografische informatie van de persoon, zijn stemgedrag en signalen van zijn sociale media-activiteit over zijn politiek en de belangrijkste kwesties die hij belangrijk vindt. Het kan ook een weerspiegeling zijn van inzicht in het ‘psychografische’ profiel van een persoon, op basis van zijn mate van inschikkelijkheid, neuroticisme, openheid voor nieuwe ervaringen, extraversie en nauwgezetheid.
Onderzoekers toonden in 2013 aan dat de sociale ‘likes’ van een persoon hun ‘big five’-niveaus konden suggereren. Cambridge Analytica, dat in 2016 voor de Trump-campagne werkte, geloofde dat dergelijke niveaus nauwkeurig konden aangeven voor welke politieke kwesties mensen gevoelig waren (hoewel het onduidelijk is of die strategie enig effect had op de verkiezingen).
Maar als zo’n persoonlijkheids-‘grafiek’ in een database zou kunnen worden gemaakt, zou het mogelijk kunnen zijn om elk individueel kiezersprofiel als een sjabloon te presenteren. Deze sjablooninformatie zou als prompt aan een groot taalmodel (LLM) kunnen worden gepresenteerd, en de LLM zou kunnen worden getraind om advertentieteksten of een fondsenwervingsbrief te genereren die de politieke kwesties aanroeren waarvan zij denken dat ze een reactie zullen uitlokken. Zelfs snelle-reactievideo’s zouden kunnen worden gegenereerd die een claim tegen een kandidaat weerleggen door de hete hangijzers of politieke gevoeligheden van een specifieke kiezer aan te kaarten.
De bronnen in de politieke arena die ik heb gesproken, zeggen dat dit idee meer een heilige graal is dan een bruikbaar hulpmiddel (deels omdat LLM’s instabiel kunnen worden en onbetrouwbare antwoorden kunnen geven als de prompt te veel gegevens bevat, in dit geval over de kiezer). Maar we zijn nog maar net begonnen met het betrouwbaarder en controleerbaarder maken van LLM’s, dus bij toekomstige verkiezingen zijn hypergepersonaliseerde advertenties van allerlei aard mogelijk.
Onderzoek: Claude 3.5 Sonnet van Anthropic hallucineert minder dan andere LLM’s
Het enterprise AI-bedrijf Galileo publiceerde deze week de resultaten van zijn jaarlijkse Hallucination Index voor grote taalmodellen, die de prestaties van 22 toonaangevende generatieve AI LLM’s van bedrijven als OpenAI, Anthropic, Google en Meta rangschikt op basis van hun neiging tot hallucineren. “Nu veel bedrijven zich haasten om grotere, snellere en nauwkeurigere modellen te creëren, blijven hallucinaties de grootste horde en grootste angst voor enterprise AI-teams om productieklare Gen AI-producten te implementeren”, schrijven de Galileo-onderzoekers in hun rapport.
De Hallucination Index heeft 11 modellen aan het raamwerk toegevoegd, wat de snelle groei van zowel open- als closed-source LLM’s in de afgelopen acht maanden weerspiegelt.
Van de 22 geteste exemplaren registreerde Anthropic’s Claude 3.5 Sonnet de minste hallucinaties. Het closed-source model presteerde beter dan zijn soortgenoten in korte, middellange en lange contextvenstergroottes (dat wil zeggen de hoeveelheid data die wordt gebruikt om het model te activeren). Zowel Anthropic’s Claude 3.5 Sonnet als Claude 3 Opus scoorden consistent bijna perfecte scores in alle categorieën, en versloegen de winnaars van vorig jaar, GPT-4o en GPT-3.5, vooral in scenario’s met kortere contexten, zeggen de onderzoekers. Google’s kleine taalmodel Gemini 1.5 Flash zou het best presteren als het om de prijs gaat. Google’s open-source Gemma-7b model hallucineerde het meest.