Uit nieuw onderzoek blijkt dat het aantal deepfake-video’s enorm stijgt – en dat ’s werelds grootste zoekmachines klikken doorsturen naar tientallen sites die gewijd zijn aan deze niet-consensuele vervalsingen.
DIE VAN GOOGLE EN MICROSOFT zoekmachines hebben een probleem met deepfake pornovideo’s. Sinds deepfakes een half decennium geleden opkwamen, is de technologie consequent gebruikt om vrouwen te misbruiken en lastig te vallen, waarbij machine learning wordt gebruikt om iemands hoofd in pornografie te veranderen zonder hun toestemming. Nu groeit het aantal niet-consensuele deepfake-pornovideo’s exponentieel, aangewakkerd door de vooruitgang van AI- technologieën en een zich uitbreidend deepfake-ecosysteem.
Een nieuwe analyse van niet-consensuele deepfake-pornovideo’s, uitgevoerd door een onafhankelijke onderzoeker en gedeeld met WIRED, laat zien hoe wijdverbreid de video’s zijn geworden. Volgens de onderzoeker zijn de afgelopen zeven jaar minstens 244.625 video’s geüpload naar de top 35 van websites die uitsluitend of gedeeltelijk zijn opgezet om deepfake-pornovideo’s te hosten.
In de eerste negen maanden van dit jaar zijn er 113.000 video’s naar de websites geüpload – een stijging van 54 procent ten opzichte van de 73.000 video’s die in heel 2022 zijn geüpload. Tegen het einde van dit jaar, zo voorspellen de analyses, zullen er in 2023 meer video’s zijn geproduceerd. dan het totale aantal van elk ander jaar samen.
Deze verrassende cijfers zijn slechts een momentopname van hoe kolossaal de problemen met niet-consensuele deepfakes zijn geworden: de volledige omvang van het probleem is veel groter en omvat ook andere soorten gemanipuleerde beelden. Er is de afgelopen jaren een hele industrie van deepfake-misbruik ontstaan, die zich vooral richt op vrouwen en die wordt geproduceerd zonder toestemming of medeweten van mensen.
Face-swapping-apps die werken met stilstaande beelden en apps waarbij kleding met slechts een paar klikken van een persoon op een foto kan worden ‘ontdaan’, zijn ook zeer prominent aanwezig. Er worden waarschijnlijk miljoenen afbeeldingen gemaakt met deze apps.
“Dit is iets dat zich richt op gewone mensen, gewone middelbare scholieren, gewone volwassenen – het is een dagelijkse gebeurtenis geworden”, zegt Sophie Maddocks, die onderzoek doet naar digitale rechten en cyberseksueel geweld aan de Universiteit van Pennsylvania. “Het zou een groot verschil maken als we deze technologieën moeilijker toegankelijk zouden kunnen maken. Het zou geen twee seconden moeten duren om mogelijk aan te zetten tot een zedenmisdrijf.”
Het nieuwe onderzoek belicht 35 verschillende websites, die uitsluitend deepfake-pornovideo’s hosten of de video’s naast ander materiaal voor volwassenen opnemen. (Het omvat geen video’s die op sociale media zijn geplaatst, privé gedeelde foto’s of gemanipuleerde foto’s.) WIRED noemt de websites niet en linkt er niet rechtstreeks naar, om hun zichtbaarheid niet verder te vergroten. De onderzoeker schrapte de websites om het aantal en de duur van deepfake-video’s te analyseren, en keek met behulp van de analysedienst SoortgelijkeWeb hoe mensen de websites vinden.
Veel van de websites maken duidelijk dat ze deepfake-pornovideo’s hosten of verspreiden, vaak met het woord deepfakes of afgeleiden daarvan in hun naam. De twee bovenste websites bevatten elk 44.000 video’s, terwijl vijf andere meer dan 10.000 deepfake-video’s hosten. De meesten van hen hebben enkele duizenden video’s, terwijl sommige er slechts een paar honderd vermelden. Sommige video’s die de onderzoeker analyseerde, zijn miljoenen keren bekeken.
Het onderzoek identificeerde ook nog eens 300 algemene pornografiewebsites die op de een of andere manier niet-consensuele deepfake-pornografie bevatten. De onderzoeker zegt dat “lekkende” websites en websites die bestaan om sociale media-foto’s van mensen opnieuw te posten ook deepfake-afbeeldingen bevatten. Eén website die foto’s verhandelt, beweert dat het mensen heeft ‘uitgekleed’ op 350.000 foto’s.
Het online meten van de volledige omvang van deepfake-video’s en -afbeeldingen is ongelooflijk moeilijk. Het is een uitdaging om bij te houden waar de inhoud op sociale media wordt gedeeld, terwijl beledigende inhoud ook wordt gedeeld in privéberichtengroepen of gesloten kanalen, vaak door mensen die bekend zijn bij de slachtoffers. In september meldden ruim twintig meisjes van 11 tot 17 jaar zich in de Spaanse stad Almendralejo nadat AI-tools waren gebruikt om zonder hun medeweten naaktfoto’s van hen te genereren .
“Er is sprake van een aanzienlijke groei in de beschikbaarheid van AI-tools voor het creëren van deepfake, niet-consensuele pornografische beelden, en een toename van de vraag naar dit soort inhoud op pornografische platforms en illegale online netwerken”, zegt Asher Flynn, universitair hoofddocent aan de Monash University, Australië. , die zich richt op AI en door technologie gefaciliteerd misbruik. Dit zal waarschijnlijk alleen maar toenemen met nieuwe generatieve AI-tools.
De toegangspoort tot veel van de websites en tools om deepfake-video’s of -afbeeldingen te maken is via zoeken. Miljoenen mensen worden naar de door de onderzoeker geanalyseerde websites geleid, waarbij 50 tot 80 procent van de mensen via zoekopdrachten hun weg naar de websites vindt. Het vinden van deepfake-video’s via zoeken is triviaal en vereist niet dat iemand speciale kennis heeft over waarnaar hij moet zoeken.
De kwestie is mondiaal. Met behulp van een VPN testte de onderzoeker Google-zoekopdrachten in Canada, Duitsland, Japan, de VS, Brazilië, Zuid-Afrika en Australië. In alle tests werden deepfake-websites prominent weergegeven in de zoekresultaten. Beroemdheden, streamers en makers van inhoud worden vaak in de video’s getarget. Maddocks zegt dat de verspreiding van deepfakes ‘endemisch’ is geworden en dat is waar veel onderzoekers voor het eerst bang voor waren toen de eerste deepfake-video’s in december 2017 bekendheid kregen .
Sinds de opkomst van de tools die nodig zijn om deepfake-video’s te maken, zijn ze gemakkelijker te gebruiken geworden en is de kwaliteit van de geproduceerde video’s verbeterd. De golf van tools voor het genereren van afbeeldingen biedt ook de mogelijkheid om beledigende afbeeldingen van hogere kwaliteit en uiteindelijk video te maken. En vijf jaar nadat de eerste deepfakes verschenen, verschijnen net de eerste wetten die het delen van vervalste beelden criminaliseren.
De proliferatie van deze deepfake-apps, gecombineerd met een grotere afhankelijkheid van digitale communicatie in het Covid-19-tijdperk en een “falen van wetten en beleid om gelijke tred te houden” heeft een “perfecte storm” veroorzaakt, zegt Flynn.
Deskundigen zeggen dat er naast nieuwe wetten ook beter onderwijs over de technologieën nodig is, evenals maatregelen om de verspreiding van instrumenten die zijn ontwikkeld om schade aan te richten, te stoppen. Dit omvat acties van bedrijven die de websites hosten, maar ook van zoekmachines, waaronder Google en Microsoft’s Bing. Momenteel zijn klachten over de Digital Millennium Copyright Act (DMCA) het belangrijkste juridische mechanisme dat vrouwen hebben om video’s van websites te laten verwijderen.
Henry Ajder, een deepfake en generatieve AI-expert die de verspreiding van de technologieën heeft gevolgd, zegt dat er meer ‘wrijving’ is toegevoegd aan het proces waarbij mensen deepfake-pornovideo’s vinden, apps om de gezichten van mensen te veranderen en tools die specifiek het creëren van niet-consensuele afbeeldingen mogelijk maken. kan de verspreiding verminderen. “Het gaat erom dat je het iemand zo moeilijk mogelijk maakt om te vinden”, zegt hij.
Dit kunnen zoekmachines zijn die de resultaten van schadelijke websites naar beneden halen, of internetproviders die sites blokkeren, zegt hij. “Het is moeilijk om echt optimistisch te zijn, gezien het volume en de schaal van deze operaties, en de noodzaak voor platforms – die deze kwesties historisch gezien niet serieus hebben genomen – om dit plotseling wel te doen”, zegt Ajder.
“Net als elke zoekmachine indexeert Google inhoud die op internet bestaat, maar we ontwerpen onze rankingsystemen actief om te voorkomen dat we mensen shockeren met onverwachte schadelijke of expliciete inhoud die ze niet willen zien”, zegt Google-woordvoerder Ned Adriance, wijzend op zijn pagina aan wanneer zoekresultaten worden verwijderd .
Op de ondersteuningspagina’s van Google staat dat het voor mensen mogelijk is om te verzoeken dat “onvrijwillige neppornografie” wordt verwijderd. Het verwijderingsformulier vereist dat mensen handmatig URL’s en de zoektermen indienen die zijn gebruikt om de inhoud te vinden. “Naarmate deze ruimte evolueert, werken we actief aan het toevoegen van meer waarborgen om mensen te helpen beschermen, op basis van systemen die we hebben gebouwd voor andere soorten niet-consensuele expliciete beelden”, zegt Adriance.
Courtney Gregoire, chief digital safety officer bij Microsoft, zegt dat het geen deepfakes toestaat en dat deze via zijn webformulieren kunnen worden gerapporteerd . “De verspreiding van niet-consensuele intieme beelden (NCII) is een grove schending van de persoonlijke privacy en waardigheid met verwoestende gevolgen voor de slachtoffers”, zegt Gregoire. “Microsoft verbiedt NCII op onze platforms en diensten, inclusief het verzoeken van NCII of het pleiten voor de productie of herverdeling van intieme beelden zonder toestemming van het slachtoffer.”
Terwijl het aantal video’s en foto’s blijft stijgen, kan de impact op de slachtoffers langdurig zijn. “Op gender gebaseerde online intimidatie heeft een enorm huiveringwekkend effect op de vrijheid van meningsuiting van vrouwen”, zegt Maddocks. Zoals gerapporteerd door WIRED hebben vrouwelijke Twitch-streamers die het doelwit zijn van deepfakes zich gedetailleerd geschonden, blootgesteld aan meer intimidatie en tijdverlies, en sommigen zeiden dat de niet-consensuele inhoud zijn weg naar familieleden vond.
Flynn, hoogleraar aan de Monash University, zegt dat uit haar onderzoek blijkt dat er sprake is van “hoge aantallen” psychische problemen – zoals angst, depressie, zelfverwonding en zelfmoord – als gevolg van digitaal misbruik. “De potentiële impact op de mentale en fysieke gezondheid van een persoon, maar ook op zijn werk, gezin en sociale leven, kunnen enorm zijn,” zegt Flynn, “ongeacht of het beeld deepfaked of ‘echt’ is.”