Deepfakes van Taylor Swift. De onderhandelaars van de EU komen overeen om bepaald onlinegeweld tegen vrouwen strafbaar te stellen, inclusief grafisch AI-gegenereerd materiaal.
Pop-superster Taylor Swift werd in januari het slachtoffer van naakt-deepfakes – en Europese functionarissen willen voorkomen dat dit iemand anders overkomt.
Onderhandelaars van de Europese Unie hebben dinsdag een akkoord bereikt over een wetsvoorstel dat het delen van dergelijke inhoud in de hele EU, evenals wraakporno en online intimidatie, tegen midden 2027 strafbaar zou stellen.
Vrouwen hebben de afgelopen jaren steeds vaker te maken gehad met misbruik op sociale media – van gerichte intimidatie en stalking. Goedkope generatieve kunstmatige intelligentie- instrumenten hebben het ook gemakkelijker gemaakt om nepfoto’s en video’s van naakte vrouwen te maken. Swift is misschien wel het meest prominente onderwerp van dergelijke deepfakes, maar ze is bepaald niet de enige.
De kwestie heeft een grotere urgentie gekregen nadat nep-AI-gegenereerde grafische afbeeldingen van Swift in januari meer dan 45 miljoen keer werden gezien op sociale mediaplatform X (voorheen Twitter). Wetgevers in de Verenigde Staten deden nieuwe oproepen tot wetgeving , en het incident veroorzaakte alarm in het Witte Huis.
“De nieuwste walgelijke manier om vrouwen te vernederen is door in een paar minuten door iedereen intieme beelden te delen die door AI zijn gegenereerd. Dergelijke foto’s kunnen enorme schade aanrichten, niet alleen aan popsterren, maar aan elke vrouw die op het werk of thuis zou moeten bewijzen dat het een deepfake was”, vertelde vicevoorzitter van de Europese Commissie, Věra Jourová, aan POLITICO.
Slachtoffers van expliciete deepfakes in Europa zijn momenteel aangewezen op een lappendeken van wetten, zoals de EU-privacywet, de Algemene Verordening Gegevensbescherming ( AVG ) en nationale wetten tegen smaad. Grote sociale mediaplatforms zoals X en Meta moeten het voor mensen en politie gemakkelijker maken om mogelijk illegale inhoud te melden – en deze snel (geen woordspeling bedoeld) te verwijderen als dat het geval is – als onderdeel van het EU-regelboek voor inhoudsmoderatie, de Digitale Diensten Wet (DSA).
De Commissie heeft in 2022, op het hoogtepunt van de #MeToo-beweging, een baanbrekende wet voorgesteld die de EU-landen zou dwingen meer te doen om onlinemisbruik tegen vrouwen te bestraffen. De regels bevatten definities van misdaden, variërend van gedwongen huwelijken en vrouwelijke genitale verminking tot cyberstalking. Ze bevelen ook minimale gevangenisstraffen aan, zoals minimaal een jaar gevangenisstraf wegens cybergeweld.
“Onze toewijding aan het beschermen van de waardigheid en rechten van vrouwen en meisjes in Europa heeft geleid tot de criminalisering van verschillende vormen van cybergeweld, zoals het zonder wederzijds goedvinden delen van intieme beelden, waaronder deepfakes, cyberstalking, cyberintimidatie, vrouwonvriendelijke haatzaaiende uitlatingen en cyberaanvallen. -knipperend”, zei Europees commissaris voor Gelijkheid Helena Dalli.
De definitieve deal maakt het ook strafbaar om ongevraagde foto’s van seksueel expliciet materiaal, zoals geslachtsdelen, te sturen. Een ontwerpvoorstel om seks zonder wederzijds goedvinden in het hele blok strafbaar te stellen, werd echter afgewezen vanwege hardnekkige tegenstand van de EU-landen .
Deepfakes van Taylor Swift: nieuwe technologieën worden al lang als wapen tegen vrouwen gebruikt. De oplossing betreft ons allemaal
Seksueel expliciete ‘deepfake’-beelden van Taylor Swift gingen vorige week viraal op sociale media, wat leidde tot wijdverbreide veroordeling door Swifties, het grote publiek en zelfs het Witte Huis.
The circulation of false images of Taylor Swift are alarming. We know that incidences like this disproportionately impact women and girls. @POTUS is committed to ensuring we reduce the risk of fake AI images through executive action. The work to find real solutions will continue. pic.twitter.com/IOIl9ntKtP
— Karine Jean-Pierre (@PressSec) January 26, 2024
Dit probleem is niet nieuw. Swift is een van de vele beroemdheden en publieke figuren, voornamelijk vrouwen , die de afgelopen jaren het slachtoffer zijn geworden van deepfake-pornografie. Spraakmakende voorbeelden trekken veel media-aandacht, maar door de steeds geavanceerdere aard van AI kan iedereen nu het doelwit zijn .
Hoewel er ernstige zorgen zijn over de bredere implicaties van deepfakes, is het belangrijk om te onthouden dat de technologie niet de oorzaak van misbruik is. Het is gewoon een ander instrument dat wordt gebruikt om het uit te voeren .
Taylor Swift Deepfakes en andere digitaal gemanipuleerde media
De seksueel expliciete deepfakes van Swift verschenen vorige week op meerdere sociale mediaplatforms, waaronder X (voorheen Twitter), Instagram, Facebook en Reddit.
De meeste grote platforms hebben een verbod op het delen van synthetische en digitaal gemanipuleerde media die schade, verwarring of misleiding veroorzaken, waaronder deepfake-porno. Dit geldt ook voor afbeeldingen die met eenvoudiger middelen zijn gemaakt, zoals fotobewerkingssoftware. Niettemin werd een deepfake van Swift in een periode van 17 uur 47 miljoen keer bekeken voordat deze uit X werd verwijderd.
Er is een lange geschiedenis van digitale technologieën, apps en diensten die worden gebruikt om gendergerelateerd geweld te faciliteren, waaronder seksuele intimidatie, aanranding, huiselijk of gezinsgeweld, datingmisbruik, stalking en monitoring, en haatzaaiende uitlatingen.
Daarom moet onze focus ook liggen op het aanpakken van de problematische gendernormen en -overtuigingen die vaak ten grondslag liggen aan dit soort misbruik.
Taylor Swift De opkomst van deepfakes
De oorsprong van deepfakes kan worden herleid tot november 2017 , toen een Reddit-gebruiker genaamd ‘deepfakes’ een forum en videobewerkingssoftware creëerde waarmee gebruikers hun computers konden trainen om de gezichten van pornoacteurs te verwisselen met de gezichten van beroemdheden.
Sindsdien is er een enorme uitbreiding geweest van speciale deepfake-websites en -threads, evenals van apps die gratis of tegen betaling op maat gemaakte deepfakes kunnen maken.
In het verleden vergde het creëren van een overtuigende deepfake vaak veel tijd en expertise, een krachtige computer en toegang tot meerdere afbeeldingen van de persoon op wie het doelwit was. Tegenwoordig kan bijna iedereen een deepfake maken – soms binnen enkele seconden.
Taylor Swift De schade van deepfake-porno
Niet alle toepassingen van door AI gegenereerde beelden zijn schadelijk. Misschien heb je wel eens grappige virale deepfakes gezien, zoals de afbeeldingen van paus Franciscus in een pufferjack . Of als je de nieuwste Indiana Jones-film bekijkt, zie je dat Harrison Ford dankzij AI 40 jaar ouder is geworden .
Dat gezegd hebbende, worden deepfakes vaak gemaakt voor kwaadaardige doeleinden, waaronder desinformatie, cyberpesten, seksueel misbruik van kinderen, seksuele afpersing en andere vormen van seksueel misbruik op basis van afbeeldingen .
Een rapport gepubliceerd door startup Home Security Heroes schatte dat er in 2023 95.820 deepfake-video’s online waren, een stijging van 550% sinds 2019.
Als het om deepfake-porno gaat, zijn vooral vrouwen onevenredig doelwit. Volgens DeepTrace zijn 96% van alle deepfakes online nepvideo’s van vrouwen zonder wederzijds goedvinden . Dit zijn veelal (maar niet uitsluitend) bekende acteurs en muzikanten.
Dit is zorgwekkend maar niet verrassend. Uit onderzoek blijkt dat onlinemisbruik onevenredig veel vrouwen en meisjes treft, vooral inheemse vrouwen, vrouwen met een migrantenachtergrond en lesbiennes, homoseksuelen, biseksuelen, transgenders en interseksuelen.
Vooral publieke figuren worden geconfronteerd met hogere percentages onlinemisbruik , vooral vrouwen en genderdiverse mensen. Uit een onderzoek bleek dat beroemdheden meer schuld krijgen dan niet-beroemdheden voor het misbruik dat zij online ondergaan, en dit misbruik wordt vaak als minder ernstig beschouwd.
Onderzoek toont aan dat misbruik op basis van afbeeldingen aanzienlijke schade kan toebrengen aan de slachtoffers, waaronder angst, depressie, zelfmoordgedachten, sociaal isolement en reputatieschade. Voor publieke figuren kunnen deepfakes en andere vormen van onlinemisbruik eveneens resulteren in verminderde carrièrevooruitzichten, terugtrekking uit het openbare leven en negatieve gevolgen voor de geestelijke gezondheid.
In 2016 werden de foto’s van de Australische activiste en campagnevoerder voor wetshervormingen Noelle Martin van sociale media gehaald en over pornografische afbeeldingen heen gelegd. Martin meldde dat hij zich daardoor “lichamelijk ziek, walgend, boos, gedegradeerd en ontmenselijkt” voelde. Digitaal gewijzigde en deepfake-afbeeldingen van Martin blijven zonder haar toestemming online circuleren.
Taylor Swift Reageren op deepfake-porno
Iedereen kan het doelwit zijn van deepfakes. Het enige dat nodig is, is een afbeelding van iemands gezicht. Zelfs professionele werkafbeeldingen kunnen worden gebruikt.
Hoewel wetshervormingen alleen dit sociaal-juridische probleem niet zullen oplossen, kan het wel een signaal zijn dat de kwestie serieus wordt genomen. We hebben wetten nodig die specifiek gericht zijn op deepfake-porno zonder wederzijds goedvinden .
In Australië zijn er in elke Australische staat en territorium behalve Tasmanië, maar ook op federaal niveau sprake van op afbeeldingen gebaseerde seksuele misdrijven . Slechts enkele wetten vermelden echter specifiek digitaal gewijzigde afbeeldingen (inclusief deepfakes).
‼️| Lawmakers propose anti-nonconsensual AI porn bill after Taylor Swift controversy.
— It would let people sue over digitally faked sexual images. pic.twitter.com/9LSwer9D1a
— The Swift Society (@TheSwiftSociety) January 31, 2024
Technologiebedrijven zouden ook veel meer kunnen doen om deepfake-porno proactief op te sporen en te modereren. Ze moeten vanaf het begin prioriteit geven aan het inbedden van ‘ safety by design’ -benaderingen in hun diensten. Dit kan betekenen:
- het ontwerpen en testen van AI met mogelijk misbruik in gedachten
- het gebruik van watermerken en andere indicatoren om inhoud als synthetisch te bestempelen
- gebruikers ‘duwen’ om zich te onthouden van bepaald gedrag (zoals het gebruik van pop-ups om hen te herinneren aan het belang van toestemming).
Onderzoek toont aan dat er lacunes bestaan in het publieke begrip van deepfakes en hoe deze te detecteren. Dit benadrukt verder de behoefte aan digitale geletterdheid en voorlichting over het verschil tussen consensueel en niet-consensueel gebruik van intieme beelden, en de schade van niet-consensuele deepfake-porno.
Ten slotte, en misschien wel het allerbelangrijkste, moeten we de onderliggende systemische ongelijkheden aanpakken die bijdragen aan door technologie gefaciliteerd misbruik tegen vrouwen en genderdiverse mensen. Dit omvat ook het herkennen van deepfake-porno voor het vaak gendergerelateerde probleem dat het is – zowel voor beroemdheden als voor niet-beroemdheden.