AI Dinsdag meldden Kat Tenbarge en Liz Kreutz van NBC News dat verschillende middelbare scholieren in Beverly Hills, Californië, betrapt werden op het maken en verspreiden van nep-naaktfoto’s van hun leeftijdsgenoten: “Schoolfunctionarissen van de Beverly Vista Middle School werden op de hoogte gebracht van de ‘AI -gegenereerde naaktfoto’s van leerlingen vorige week, zei de districtsinspecteur in een brief aan ouders. De hoofdinspecteur vertelde NBC News dat de foto’s de gezichten van studenten bevatten die over naakte lichamen waren gelegd.’
AI Ik had gehoord dat dit soort dingen met middelbare scholieren gebeuren , wat al vreselijk genoeg is. Maar het idee dat zulke jonge kinderen door hun klasgenoten zouden worden ontmenselijkt, vernederd en geseksualiseerd op een van de plaatsen waar ze zich veilig zouden moeten voelen, en wetende dat die beelden onuitwisbaar en wereldwijd zouden kunnen zijn, draaide mijn maag om.
Ik ben geen technofoob en ben in het verleden enigszins sceptisch geweest over de buitensporige negatieve impact van sociale media op tienermeisjes. En hoewel ik nog steeds denk dat het onderwerp ingewikkeld is, en dat het onderzoek niet altijd tot de conclusie komt dat er ongunstige gevolgen zijn voor de geestelijke gezondheid van het gebruik van sociale media voor alle groepen jongeren, voegt het toenemende bereik van kunstmatige intelligentie een nieuwe rimpel toe die de mogelijk allerlei soorten schade aanrichten.
De mogelijkheden zijn vooral beangstigend wanneer de technologie wordt gebruikt door tieners en tweens, groepen met een notoir twijfelachtig oordeel over de duurzaamheid van hun acties.
Ik moet toegeven dat mijn instinctieve reactie op het Beverly Hills-verhaal woede was: ik wilde dat het boek naar de kinderen werd gegooid die deze vervalsingen maakten. Maar ik wilde horen van iemand met meer ervaring die met tieners praat en diep nadenkt over de relatie van adolescenten met privacy en technologie. Dus belde ik Devorah Heitner, de auteur van ‘Growing Up in Public: Coming of Age in a Digital World’, om me te helpen een beetje afstand te nemen van mijn bestraffende woede.
Heitner wees erop dat hoewel kunstmatige intelligentie een nieuwe dimensie toevoegt, kinderen al jaren zonder toestemming digitale seksuele beelden doorgeven. Volgens een meta-analyse uit 2018 van JAMA Pediatrics, onder kinderen in de leeftijdscategorie van 12 tot 17 jaar, “was de prevalentie van het doorsturen van een sext zonder toestemming 12,0 procent”, en “was de prevalentie van het doorsturen van een sext zonder toestemming 8,4 procent. .”
In haar boek geeft Heitner een voorbeeld waarin een meisje uit de achtste klas een topless foto naar haar vriend stuurt, die deze zonder haar toestemming onder zijn vrienden verspreidt. Nadat ze uit elkaar waren gegaan, maar zonder haar medeweten, ‘bleef haar foto circuleren en ging van klasgenoot op klasgenoot gedurende de hele middelbare school’, en vervolgens ‘opende ze op een middag haar school-e-mail en vond een video met haar afbeelding met geluidseffecten van een pornovideo die ermee speelt.”
Dat soort situaties is al misselijkmakend, maar het maken van nep- naaktbeelden voegt nog een laag van overtreding toe. In de zaak Beverly Hills waren, volgens NBC News, niet alleen middelbare scholieren bezig met het seksualiseren van hun leeftijdsgenoten door het creëren van namaakproducten, ze deelden ook de beelden, wat de pijn alleen maar kan verergeren.
“Als je een beeld van iemand anders creëert en dat doet zonder diens toestemming,” vertelde Heitner me, “of het nu echt of nep is, dan schend je die persoon en diens privacy, en schenden ze hun veiligheid.” In deze situaties, zegt ze, kunnen meisjes het gevoel hebben dat hun gevoel van sociale acceptatie verloren is gegaan. Ze kunnen een gevoel van martelende vernedering voelen omdat ze niet weten wie van hun leeftijdsgenoten dit soort beelden heeft gezien en wie niet. In haar boek beschrijft Heitner situaties waarin meisjes helemaal niet meer naar school gaan.
Maar Heitner waarschuwde ook tegen het overmatig straffen van de daders als ze nog jongere kinderen zijn. “Het is belangrijk om te begrijpen dat een 12- of 13-jarige qua ontwikkeling anders is dan een volwassene”, zei ze. Hoewel het passend kan zijn om dat kind te schorsen of naar een andere school te verplaatsen als de slachtoffers niet langer bij hen in de buurt willen zijn, mogen ze niet voor onbepaalde tijd worden uitgesloten van alle deelname aan school of uit de samenleving worden gezet.
Ze zijn inwisselbaar; ze kunnen het goedmaken en volwassenen worden die beter weten. (Opgemerkt moet worden dat in de zaak Beverly Hills, volgens NBC News, de hoofdinspecteur van scholen zei dat de verantwoordelijke leerlingen geschorst of uitgezet konden worden, afhankelijk van hoe betrokken ze waren bij het maken en delen van de beelden.)
Kinderen moeten beter worden geïnformeerd, te beginnen op de basisschool, over technologie en toestemming voordat dit soort dingen gebeuren. Als je denkt dat het gymnasium te jong is om zulke dingen te leren, onthoud dan dat het tegenwoordig gebruikelijk is dat kinderen rond hun elfde of twaalfde hun eigen mobiele telefoon krijgen, en dat veel kinderen, zelfs jonger dan dat, toegang hebben tot een gezins-iPad waarop afbeeldingen kunnen worden gemaakt en mogelijkheden delen. Zoals Heitner in haar boek schrijft:
Leer uw kind hoe belangrijk het is om nooit een expliciet bericht of foto van iemand anders te delen, vooral niet zonder toestemming van die persoon. Leg hen uit dat, ongeacht hoe ze de expliciete afbeelding of boodschap tegenkwamen, het doorgeven ervan aan iemand anders onethisch is, de overtreding van die persoon bestendigt en zeer waarschijnlijk illegaal is in hun staat (vooral als de afbeelding van een minderjarige is).
De relevante wetten zijn echter het meest direct van toepassing op echte foto’s. In sommige staten bevinden AI-gegenereerde naaktfoto’s zich in een meer juridisch grijs gebied. Er is geen federale wet die slachtoffers van deepfakes beschermt, en volgens rapporten van Tenbarge en Melissa Chan zeggen “Politici en juridische experts dat er weinig of geen verhaalsmogelijkheden zijn voor slachtoffers van door AI gegenereerde en deepfake-pornografie” – bijna Volgens een onderzoek uit 2019 zijn ze allemaal vrouw.
Schooldistricten en ons rechtssysteem moeten snel actie ondernemen om met beleid te komen dat deze kwesties aanpakt, omdat deze niet zullen verdwijnen en alleen maar alomtegenwoordiger zullen worden naarmate de technologie evolueert en zich vermenigvuldigt.
Heitner benadrukte ook hoe belangrijk het is om tot de kern van dit soort gedrag door te dringen. “We moeten kinderen eigenlijk leren over empathie en het respecteren van elkaars menselijkheid,” zei ze, en ook kijken naar “de vrouwenhaat en homofobie in de samenleving die deze kinderen de vrijheid lijkt te geven om te pesten langs dit soort gendergerelateerde lijnen en houden toezicht op elkaars lichamen.”
Ik hoor regelmatig van mensen die zeggen dat ze perplex zijn dat jonge vrouwen zich nog steeds zo machteloos voelen, gezien het feit dat zij het merendeel van de universitaire diploma’s behalen en het op verschillende punten beter doen dan hun mannelijke tegenhangers. Op een bepaald niveau is het niet zo ingewikkeld: meisjes voelen zich vaak minderwaardig omdat ze weten dat sommige van hun leeftijdsgenoten de indruk hebben dat ze gedachteloos vernederend mogen zijn.
En verder weten ze dat een deel van de samenleving hen alleen als objecten waardeert . Ze lopen door de wereld met dat gewicht op hun schouders, en het is aan ons allemaal om dat te helpen opheffen.
‘AI Deepnudes’ en de opkomst van nep naakt: wat kun je er tegen beginnen?
Voor gemanipuleerde naaktbeelden hoeft het slachtoffer niet zonder kleding te zijn vastgelegd. Diverse websites en apps maken van doodgewone foto’s ‘deepnudes’ die niet van echt te onderscheiden zijn. De impact van het verspreiden van nep-naaktbeelden is vaak net zo groot als bij ‘echt’ beeld. Wat kun je hier als slachtoffer tegen beginnen?
AI Deepfakes
Stel je voor dat je online een naaktfoto van jezelf tegenkomt die echt lijkt, maar nooit is genomen. AI – kunstmatige intelligentie – software maakt het mogelijk de persoon op een ‘gewone’ foto of video als het ware te strippen. Deze ‘deepnudes’ zijn een vorm van de bekendere deepfake. Hierbij worden bestaande beelden gebruikt om een nieuwe foto of video te maken. Een recent voorbeeld is De Correspondent-video van Mark Rutte.
Inmiddels zijn er diverse websites en apps in omloop die het maken van deepnudes angstaanjagend eenvoudig maken. Hoewel de makers en oorsprong vaak moeilijk te traceren zijn, meldt het Britse platform Glamour dat één van deze sites in de eerste zeven maanden van 2021 38 miljoen hits te pakken had. De ondertitel van de website luidt: ‘Kleed alle vrouwen uit, wat ze ook aan hebben. Beter dan deepnude. De bedreiging voor vrouwen.’
AI Impact
Helpwanted, een hulplijn voor slachtoffers van online seksueel misbruik, weet niet exact hoeveel mensen vanwege deepnudes bellen. Wat wel opvalt, is dat de nepbeelden steeds realistischer worden, zegt inhoudelijk beleidsmedewerker Simone Belt. “Door de technologie is nep steeds moeilijker van echt te onderscheiden. Dat maakt het voor slachtoffers nog ingewikkelder om te zeggen: ‘Dit ben ik niet, en dat kun je hier aan zien’.”
Zelfs als het overduidelijk is dat de foto of video nep is – het hoofd past bijvoorbeeld totaal niet bij het lichaam waar het is opgeplakt – blijft het een inbreuk op iemands lichamelijke integriteit. “Dat kan net zo goed schadelijk zijn. Er wordt iets met je lichaam gedaan, en geïmpliceerd dat jij dat bent. Ook al is het duidelijk niet zo. Dat kan heel naar zijn om te ervaren.”
Hoe groot de impact is, verschilt per situatie. “Soms waait het zo weer over, maar vaak gaan dit soort beelden op middelbare scholen rond. Dan krijgt het slachtoffer vaak een bepaalde reputatie, wat op die leeftijd extra moeilijk is. Dit wordt ook wel victim blaming genoemd, waarin mensen die slachtoffer zijn van een situatie daar onterecht de schuld van krijgen.”
“Deepnudes worden niet specifiek genoemd in de huidige wetgeving”, zegt Bart Schermer, hoogleraar Privacy en Cybercrime aan de Universiteit Leiden. In januari 2020 is de nieuwe ‘wraakporno’-wetgeving in werking getreden. Hierdoor is het verspreiden van beelden van een seksuele aard nu expliciet strafbaar. “Een deepnude is misschien geen echt naaktbeeld van iemand, maar kan de seksuele privacy in dezelfde mate aantasten.”
AI Wetgeving
“Er zijn geen zaken over deepnudes geweest. Daarom is het niet zeker hoe de rechter de wet gaat interpreteren”, zegt Schermer. “Maar het is niet uitgesloten dat dit soort beelden er wel onder vallen. De impact is van vergelijkbare aard.” Hij raadt slachtoffers aan om aangifte te doen. “Zo krijg je het probleem op de radar van de politiek en de politie.”
Vanuit de Tweede Kamer zijn er nu al initiatieven om deepnudes expliciet strafbaar te stellen.
Zowel Schermer als Belt van Helpwanted maken zich zorgen over het gebrek aan capaciteit bij de politie om dit soort zaken op te pakken. “Er zijn heel veel mooie plannen om de zedenwetgeving te verbeteren”, zegt Belt. “Zonder extra capaciteit kun je daar niets mee. We zien nu al dat slachtoffers van online seksmisdrijven heel lang moeten wachten.”
AI Civiele rechtszaak
“Als je weet wie de beelden heeft verspreid, kun je als slachtoffer ook een civiele rechtszaak aanspannen”, zegt Schermer. “Je moet dan kunnen bewijzen dat dit een onrechtmatige daad is en dat je schade hebt ondervonden door deze inbreuk op je portretrecht. Dat kost veel tijd en moeite voor het slachtoffer. Vaak voelen zij zich al enorm aangetast in hun privacy en dan worden ze weer met de situatie geconfronteerd.”
Voor het verwijderen van de beelden én het voorkomen van verdere verspreiding, moet je volgens Schermer bij de tussenpersoon zijn. “Je kunt aan platforms zoals Facebook of Snapchat vragen of ze de beelden offline halen. Facebook neemt dit soort wraakporno-achtige situaties vaak heel serieus, omdat het in strijd is met hun eigen algemene voorwaarden.”
De ‘schimmige plekken’ van het internet trekken zich weinig tot niets van dit soort verzoeken aan, vertelt Schermer. “Denk aan instant messaging kanalen zoals Telegram, maar ook websites die specifiek gericht zijn op het creëren en tonen van dit soort beelden. Die zitten vaak ook in het buitenland.”
“Het begint bij mensen die de echte of neppe beelden verspreiden”, zegt Belt. “Iedereen kan zich daar tegen uitspreken en ervoor kiezen de foto’s niet door te sturen en te verwijderen. Anders blijft het probleem bestaan.”
AI Geen garanties
Volgens Schermer kunnen slachtoffers deepnudes niet voorkomen. “Overal staan foto’s van ons online: van LinkedIn tot Instagram. Voor een deepfake-algoritme is een klassenfoto al genoeg om tot nieuwe beelden te komen.”
“De technologie wordt steeds geraffineerder”, benadrukt hij. “Het probleem wordt de komende jaren daardoor alleen maar groter.” Daarom zijn er mensen die niet alleen het verspreiden van deepnudes willen verbieden, maar ook het aanbieden van de mogelijkheid om ze te maken. “Door die websites en apps strafbaar te stellen, pak je het probleem bij de wortel aan. Je hebt ook nog andere mogelijkheden binnen het recht, en dat is de overheid nu aan het onderzoeken: hoe moeten we hierop reageren?”