Deepfake Twitter en Microsoft liggen onder vuur: valse naaktfoto’s van Taylor Swift gingen viraal op het platform van Musk en waren blijkbaar gemaakt met behulp van een Microsoft-service. Maar de bedrijven willen geen verantwoordelijkheid nemen. Een reactie.
Sinds geseksualiseerde deepfakes van Taylor Swift vorige week de sociale mediaplatforms overspoelden, zijn velen woedend: haar fans , maar ook mensen die onverschillig staan tegenover de muziek van de superster. Anders dan in eerdere gevallen stuitten de beelden op brede afwijzing. Zelfs het Witte Huis in Washington is ‘bezorgd’ over deze ontwikkeling. Velen roepen nu op tot strengere wetten en straffen voor dergelijke vervalsingen.
De beelden vonden hun weg naar X (voorheen Twitter) vanuit 4Chan, Telegram en andere donkere hoeken van het internet. Daar verzamelden ze miljoenen views voordat het platform ze vele uren later wist te verwijderen. Tegelijkertijd gaven de fans van Swift niet op: ze plaatsten duizenden rapporten, overspoelden Twitter en andere platforms met echte foto’s van hun ster en rapporteerden vaak degenen die de vervalsingen verspreidden.
Er is vrijwel niets nieuws aan dit feit. Deskundigen waarschuwen al jaren voor zogenaamde deepfakes en benadrukken dat de technologie vooral vrouwen treft. Ondertussen verspreiden deze niet-consensuele geseksualiseerde beelden zich online als een epidemie. Er zijn speciale forums en chatgroepen waar gebruikers ideeën uitwisselen over de beste tools en trucs, hun vaardigheden verfijnen, “gezichtssets” van hun favoriete beroemdheden delen of bestellingen accepteren. Wat ooit een niche was, werd een bloeiend bedrijf.
Een redelijk creatieve prompt is voldoende
Wat nieuw is aan de Swift-nepbeelden zijn de steeds nieuwe technologische mogelijkheden. Ze maken het voor leken nog makkelijker om beelden en video’s te maken die nauwelijks van echte opnames te onderscheiden zijn. Naast de klassieke deepfakes met ‘face swaps’, waarbij iemands gezicht zonder diens toestemming in een pornografische scène wordt samengevoegd, zijn er nu beeldgeneratoren van OpenAI, Midjourney en StableDiffusion. In dit specifieke geval had het onder meer gevolgen voor Microsoft, wiens tekst-naar-beeldgenerator genaamd Designer volgens onderzoek van 404 Media werd gebruikt om de Swift-varianten te maken. Daarachter staat het DALL-E 3- model van OpenAI.
Een paar jaar geleden was een computer met goede verwerkingskracht en enige technische vaardigheden vereist om iemands gezicht in een pornoscène te plaatsen, maar nu is een redelijk creatieve prompt op een website voldoende.
De makers van de nieuwe generatoren proberen het ergste te voorkomen. Microsoft biedt ook een “Gedragscode” voor ontwerpers , die duidelijk is geschonden. Microsoft controleert echter niet effectief of deze code wordt nageleefd. Dat is ook niet de bedoeling, omdat mensen dat zouden moeten doen – en dat is duur. Eenvoudige beschrijvingen van seksueel expliciete poses zijn voldoende om beelden te genereren zoals die nu in het geval van Swift in alle tijdlijnen zichtbaar waren.
De kosten dalen
En zo zijn geseksualiseerde deepfakes eindelijk de sociale mainstream geworden. Het is een eenvoudige formule waarmee deze ontwikkeling jaren geleden kan worden berekend. Stanford-onderzoeker Rene DiResta vat het als volgt samen : “Net zoals sociale media de distributiekosten verlagen, verlaagt generatieve AI de kosten van creatie.”
Als je dat vermenigvuldigt met het feit dat X zijn contentmoderatieteam grotendeels heeft afgeschaft sinds Elon Musk het overnam, krijg je precies de giftige situatie die zich nu voor het publiek afspeelt. En die nu met het laatste schandaal een soort omslagpunt heeft bereikt.
Swift staat niet alleen de laatste tijd in de schijnwerpers. Integendeel: ze was vanaf het begin een van de populairste doelwitten voor geseksualiseerde deepfakes. Maar nu hoef je niet eens beroemd te zijn om in de vuurlinie te staan. Het maken van deepfakes is zo gemakkelijk en goedkoop geworden dat zelfs kinderen het voor de lol doen. De gevallen uit de VS en Spanje die onlangs de meeste aandacht trokken, hadden betrekking op kinderen: zij hadden met behulp van andere onlinediensten naaktfoto’s van hun klasgenoten gemaakt en gedeeld. De daders en getroffenen waren soms pas elf jaar oud.
reactie op kritiek
Zowel Twitter als Microsoft worden opnieuw geconfronteerd met harde kritiek, zoals altijd na dergelijke schandalen. De nepfoto’s van Swift waren ongetwijfeld in strijd met de zelfopgelegde Twitter-regels. Blijkbaar was er niemand die ze snel kon verwijderen. En toen deed de trendautomatisering de rest: de naam van de superster werd urenlang als ‘trending topic’ aan iedereen getoond, wat voor nog meer aandacht zorgde. De zoekopdracht naar ‘Taylor Swift’ is nu voorlopig uitgeschakeld op het platform van Musk.
Microsoft benadrukt de schriftelijke regels die horen bij het gebruik van Designer en andere OpenAI-services . Maar hoe mensen de aangeboden tool gebruiken, is hun zaak. Microsoft wil hiervoor geen verantwoordelijkheid nemen. De herkomstgegevens die gedeeltelijk in de gegenereerde afbeeldingen zijn ingebed en die bedoeld zijn om de herkomst van de afbeeldingen te bewijzen, hebben alleen betrekking op bepaalde vormen van beeldmodificatie die in de Swift-zaak niet zijn gebruikt. Het bedrijf voerde echter snel een paar wijzigingen door om de stroom nieuwe Swift-deepfakes te stoppen: de eenvoudige woordvariaties die voorheen werden gebruikt om de pornobeelden te produceren, werken niet meer.
De tandpasta is uit de tube en niemand kan hem er weer in doen. Dus wat kun je nog meer doen? Misschien de kosten verhogen voor degenen die hen daar weg hebben geduwd. Wetgevers zouden iets kunnen doen aan de algemene verspreiding van verantwoordelijkheid die we momenteel opnieuw zien. Microsoft, OpenAI en alle anderen die goede zaken willen doen met generatieve AI zouden hen meer verantwoordelijk kunnen stellen.
Strengere wetten zullen zeker geen kwaad doen. De geplande EU-richtlijn over geweld tegen vrouwen zal het creëren en delen van geseksualiseerde deepfakes voor het eerst expliciet tot een strafbaar feit maken – in de hele EU. Dit zal zeker niet voorkomen dat dergelijke beelden worden gecreëerd, maar het zal wel een signaal afgeven over hoe een samenleving daarover denkt.
Sommigen volgen in ieder geval de ontwikkelingen op wetgevingsniveau nauwlettend. Een draad in een van de populairste forums heet ‘Watching Anti-Deepfake Legislation’. Er staat: “Jongens, we houden wetsvoorstellen in de gaten, geven tips over hoe we op de hoogte kunnen blijven van ontwikkelingen op wetgevingsgebied en bespreken hoe we ons werk kunnen voortzetten.”