
This photo illustration created on July 18, 2023, in Washington, DC, shows an advertisement to create AI girls reflected in a public service announcement issued by the FBI regarding malicious actors manipulating photos and videos to create explicit content and sextortion schemes. Photo apps digitally undressing women, sexualized text-to-image prompts creating "AI girls" and manipulated images fuelling "sextortion" rackets -- a boom in deepfake porn is outpacing US and European efforts to regulate the technology. (Photo by Stefani REYNOLDS / AFP)
Uit onderzoek van Thorn blijkt dat de meeste kinderen weten dat deepfake-naaktfoto’s schadelijk zijn.
Tieners die steeds vaker getraumatiseerd raken door deepfake-naaktfoto’s, beseffen duidelijk dat de door AI gegenereerde beelden schadelijk zijn.
En blijkbaar doen veel van hun kwelgeesten dat ook, die doorgaans gratis of goedkope “nudify”-apps of webtools gebruiken om onschuldige foto’s van slachtoffers “uit te kleden” en de nepnaaktfoto’s vervolgens rond te sturen op school of naar mensen die ze online kennen. Een verrassend recent onderzoek van Thorn suggereert dat er een groeiende consensus is onder jongeren onder de 20 dat het maken en delen van nepnaaktfoto’s duidelijk beledigend is.
Dat is een beetje “goed nieuws” op het gebied van deepfake naaktfoto’s, vertelde Thorns directeur onderzoek, Melissa Stroebel, aan Ars. Vorig jaar verklaarde The New York Times dat tieners nu worden geconfronteerd met een “epidemie” van nepnaaktfoto’s op middelbare scholen en hogescholen die totaal niet voorbereid zijn om slachtoffers te steunen of in sommige gevallen zelfs maar te erkennen.
Uit minstens één onderzoek uit 2023 bleek dat deepfake-pornografie al genormaliseerd is voor volwassenen, waarbij 74 procent van de 1.522 Amerikaanse mannelijke deepfake-pornogebruikers aangaf dat ze zich “niet schuldig” voelen over het bekijken ervan. En tot nu toe hebben volwassenen die het oneens zijn over de sociale normen rond deepfake-porno chaos veroorzaakt op scholen. In Pennsylvania probeerden ouders zelfs een directeur van een privéschool te vervolgen die moest sluiten nadat de beheerder naar verluidt maandenlang meldingen negeerde van een enkele student die nep-naaktfoto’s maakte die in de loop van de tijd op bijna 50 vrouwelijke studenten waren gericht.
Maar naarmate hun vrienden en klasgenoten slachtoffer worden, beginnen veel tieners te beseffen dat het niet oké is om kunstmatige intelligentie te gebruiken om naaktfoto’s te maken zonder wederzijdse toestemming.
Maandag maakte Thorn de resultaten bekend van een enquête onder 1200 jongeren tussen de 13 en 20 jaar. Hieruit bleek dat 84 procent van de jongeren deepfake-naaktfoto’s “overweldigend herkent” als misbruik dat het afgebeelde slachtoffer schade toebrengt.
Stroebel vertelde Ars dat het maken van deepfake naaktfoto’s voor jongeren nog niet normaal is. Maar Thorns onderzoek, waaruit bleek dat 10 procent van de ondervraagde jongeren persoonlijk een slachtoffer kent, suggereert dat “het vaker wel dan niet gebeurt in bijna elk schoolsysteem in het land,” en waarschijnlijk “heeft elke stad minstens één persoon op de een of andere manier, vorm of gedaante, geviseerd,” suggereerde ze.
“Zelfs als het één persoon is die het creëert, één persoon die het doelwit is, is de kans groot dat het zich door de hele gemeenschap verspreidt”, vertelde Stroebel aan Ars. Hij suggereerde dat het delen van beelden zonder toestemming “het aantal getroffen kinderen en de omvang van de schade aan het afgebeelde kind exponentieel doet toenemen.”
Roberta Duffield, directeur van inlichtingendiensten voor Blackbird.AI, dat hulpmiddelen voor het detecteren van deepfakes maakt, vertelde Ars dat “deepfakes die op kinderen (en volwassenen) gericht zijn, momenteel een van de meest verraderlijke en verstrekkende gevaren van AI vormen.”
En met name voor jongeren die “nog bezig zijn hun identiteit te vormen”, kunnen de “psychologische, reputatie- en sociale gevolgen ernstig en langdurig zijn”, aldus Duffield. Ze was het met Stroebel eens dat er dringend behoefte is aan een meervoudige aanpak van het probleem, waarbij niet alleen scholen en ouders betrokken zijn, maar ook wetgevers en technologiebedrijven.
“Het beschermen van kinderen tegen door AI gegenereerd seksueel materiaal zou voorop moeten staan in het beleid voor contentmoderatie op socialemediaplatforms en in de wetgevende kantoren van beleidsmakers”, aldus Duffield.

“Ik was geil”: Hoe tieners het maken van nep-naaktfoto’s rechtvaardigen
Sinds nudify-apps populairder zijn geworden, zijn de meeste slachtoffers vrouwen, maar ook jonge mannen zijn het doelwit geworden, ontdekte Thorn, die opriep tot meer onderzoek naar de ervaringen van alle jongeren. Die trend heeft er misschien toe bijgedragen dat het overkoepelende sentiment, in ieder geval onder jongeren, is weggedrongen van het verdedigen van seksueel misbruik als een grap. Stroebel was verrast toen hij ontdekte dat de meeste jonge respondenten van de enquête de grap niet meer grappig vonden.
“Iedereen zal het zien, ze zullen zich schamen en het zal nooit meer weggaan,” zei een 13-jarige mannelijke respondent. Een andere mannelijke respondent, 18 jaar oud, leek de complexiteit nog beter te begrijpen en legde uit dat “het de persoon ontmenselijkt, omdat je hem of haar gebruikt voor plezier zonder toestemming.”
“Het is echt verrassend en hoopvol voor mij dat de kinderen duidelijkheid hebben over dit onderwerp”, vertelde Stroebel aan Ars, vooral in vergelijking met de resultaten van het onderzoek uit 2023, waaruit bleek dat veel volwassen mannen vinden dat er niets mis is met nepnaaktfoto’s.
Stroebel vertelde Ars dat omdat jongeren digital natives zijn, ze eerder early adopters worden van opkomende technologieën zoals nudify-apps; helaas bevinden ze zich ook in een periode van hun leven waarin ze waarschijnlijk riskanter gedrag vertonen. Thorn ontdekte dat motieven voor het maken van deepfake nudes onder andere “seksuele nieuwsgierigheid, genotzucht, wraak” en groepsdruk waren.
Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.
Dank je en proost?
Wij van Indignatie AI zijn je eeuwig dankbaar
Een 14-jarige jongen beweerde dat hij deepfake-naaktfoto’s had gemaakt om een pestkop te pesten.
Een andere tienerjongen, een jaar ouder, zei dat hij gewoon wilde ‘zien hoe het eruit zou zien’.
“Ik werd uitgedaagd”, gaf een 18-jarige vrouwelijke respondent toe, terwijl een 18-jarige man bekende: “Ik was geil” en “kon NIET helder denken”.
Slechts 9 procent van de respondenten ontkende schade en rationaliseerde beslissingen om AI-naakten te maken, bekijken of delen door te beweren dat niemand schade ondervindt. De meesten die de schade ontkenden, hielden vol dat de afbeeldingen geen echte schade kunnen veroorzaken omdat ze nep zijn, terwijl anderen suggereerden dat slachtoffers niet fysiek gewond raken of de ernst van de emotionele pijn bagatelliseerden.
“Zodra iedereen weet dat het een deepfake is, zijn alle gevoelens van paniek en angst verdwenen,” aldus een 16-jarige vrouwelijke respondent. “Het is niet echt jij, dus er is geen druk. Het is een beetje stressvol, maar het is niet echt hun lichaam.”
Een 13-jarige mannelijke respondent gaf toe dat het onethisch was, maar uiteindelijk niet schadelijk, en zei: “jij bepaalt wat je beledigt. Natuurlijk is het fout om deepfake naaktfoto’s te maken, maar uiteindelijk is het nep.”
Thorn vermoedt dat de ervaringen van jongeren met deepfake naaktfoto’s te weinig worden gerapporteerd, deels omdat slachtoffers zich te beschaamd of getraumatiseerd voelen om ze te melden en deels omdat ze geen idee hebben dat de nepnaaktfoto’s bestaan. Ongeveer 27 procent van de respondenten vertelde Thorn dat ze nepnaaktfoto’s voor persoonlijk gebruik hebben gemaakt en deze nooit hebben gedeeld.
De meeste jongeren die nep-naaktfoto’s maken, delen ze echter (65 procent), ontdekte Thorn. En ze delen ze net zo vaak (30 procent) met andere kinderen op school als met alleen online contacten (29 procent). Duffield vertelde Ars dat deze drang om te delen de reden is dat educatieve campagnes nodig zijn om “mensen te helpen content in twijfel te trekken voordat ze het delen.
Nep-naaktfoto’s dreigen normaler te worden voor tieners
Uit het onderzoek van Thorn blijkt dat tieners genuanceerdere gedachten hebben over deepfake naaktfoto’s dan sommige experts zouden verwachten. En nieuwsberichten over schandalen die scholen op hun grondvesten doen schudden, laten zien dat de houding van de maatschappij ten opzichte van nepnaaktfoto’s van belang is voor tieners. Zij zoeken vaker hulp bij het bestrijden van de schade die nepnaaktfoto’s aanrichten (76 procent) dan bij andere vormen van online seksuele interacties (46 procent), ontdekte Thorn.
De meeste ondervraagde jongeren gebruiken online tools zoals blokkeren of melden wanneer ze deepfake naaktfoto’s tegenkomen. Maar meer dan de helft (57 procent) zocht offline hulp, zei Thorn, meestal bij een ouder, schoolbestuurder, vrienden of politie. Om ervoor te zorgen dat jongeren hulp blijven zoeken, zijn er meer ondersteuningsbronnen nodig, zei Thorns onderzoek, waaronder hulplijnen en juridische hulp.
Bovendien moet elke school in het land dringend een expliciet beleid opstellen dat ouders en leerlingen duidelijk maakt hoe de school reageert wanneer er een deepfake-naaktschandaal ontstaat, vertelde Stroebel aan Ars. Dat zou crisisresponsplannen moeten omvatten, zei Duffield.
“Onderwijzers zouden gestandaardiseerde richtlijnen kunnen opstellen voor de omgang met deepfake-incidenten, hulpmiddelen kunnen aanbieden aan onderwijzers en ouders en kunnen samenwerken met wetshandhavingsinstanties om juridische uitdagingen aan te pakken”, aldus Duffield.
Thorn adviseert daarnaast om meer onderzoek te doen naar de manier waarop jongeren blokkeren en melden gebruiken om online bedreigingen te bestrijden.
Stroebel vertelde Ars dat ze beter wil begrijpen waarom kinderen ervoor kiezen om te blokkeren in plaats van te rapporteren in bepaalde omstandigheden. Ze maakt zich zorgen dat kinderen er overweldigend voor kiezen om gebruikers te blokkeren die nep-naaktfoto’s delen, in plaats van de aanval te rapporteren en een bredere platformrespons te veroorzaken die zou kunnen helpen de schade aan meer gebruikers te minimaliseren. Het is ook zorgwekkend, zei ze, om te denken dat met name jonge gebruikers die zich onmiddellijk in gevaar voelen, ten onrechte verwachten dat het rapporteren van een nep-naaktfoto onmiddellijke actie teweegbrengt.
Andere veranderingen die technologiebedrijven kunnen overwegen, zijn onder meer het prioriteren van een betere detectie van deepfakes, adviseerde Duffield.
Stroebel vertelde Ars dat institutionele steun misschien wel het meest dringend is, om te voorkomen dat nepnaaktfoto’s een normaal onderdeel van de tienerervaring worden.
Op dit moment, zei ze, willen kinderen weten hoe ze zichzelf en hun vrienden kunnen beschermen, en op dit moment is er gewoon geen duidelijke boodschap dat het maken van nepnaaktfoto’s ernstige gevolgen heeft. Zelfs scholen waar schandalen hebben plaatsgevonden, lijken hun plannen om kinderen te steunen niet publiekelijk te delen zodra de negatieve reacties zijn verdwenen, waardoor er mogelijk een debat open blijft over wat goed en fout is, waarvan Stroebel zei dat het jongeren in gevaar brengt naarmate het langer onopgelost blijft.
“Er is geen uniforme institutionele respons, of we het nu hebben over het beleidsniveau, het gezinsniveau, het schoolniveau, en normalisatie komt uiteindelijk tot stand wanneer het breed geaccepteerd is en verwacht wordt,” zei Stroebel. “Als er te lang geen institutionele respons is” die expliciet verduidelijkt “dat dit schadelijk gedrag is, dan gaat het [over] de individuele mening of dit schadelijk is of niet,” zei Stroebel.
Daarmee bestaat het risico dat de huidige standaard die ontbreekt, de status quo blijft en dat “de controle in handen blijft van de persoon die de keuze maakt of hij of zij wel of geen beelden van misbruik gaat creëren”, aldus Stroebel.
Veel tieners vertelden Thorn dat ze het misbruik al erkennen en al om hulp vragen. Zoals een 15-jarig meisje aan Thorn uitlegde: “ook al is het niet echt,” slachtoffers “hebben op dit moment geen manier om dat te bewijzen, en ze kunnen het niet zomaar ontkennen, omdat hun gezicht er hoogstwaarschijnlijk op staat.”