AI – Er is veel discussie over de rol van technologie in het leven van kinderen, maar soms komen we iets onmiskenbaar slechts tegen. Dat is het geval met AI-“nudificatie”-apps , die tieners gebruiken om nep-naaktfoto’s van hun klasgenoten te genereren en te delen.
AI Op de Issaquah High School in de staat Washington gebruikten jongens een app om foto’s te ‘strippen’ van meisjes die afgelopen herfst het homecoming-dansfeest bijwoonden , aldus de New York Times . Op de Westfield High School in New Jersey creëerden jongens uit de 10e klas verzonnen expliciete afbeeldingen van enkele van hun vrouwelijke klasgenoten en deelden deze op school. Studenten van Californië tot Illinois hebben deepfake-naaktfoto’s laten delen zonder hun toestemming, in wat experts een vorm van ‘op afbeeldingen gebaseerd seksueel misbruik’ noemen.
Nu steunen voorstanders – waaronder enkele tieners – wetten die straffen opleggen voor het maken en delen van deepfake-naaktfoto’s. Wetgeving is aangenomen in Washington, South Dakota en Louisiana, en is in de maak in Californië en elders. Ondertussen heeft vertegenwoordiger Joseph Morelle (D-NY) opnieuw een wetsvoorstel ingediend dat het delen van de beelden tot een federale misdaad zou maken.
Francesca Mani, een 15-jarige Westfield-student wiens deepfaked-imago werd gedeeld, begon aan te dringen op wets- en beleidsverandering nadat ze zag dat haar mannelijke klasgenoten meisjes belachelijk maakten vanwege de beelden. “Ik werd super boos, en genoeg was genoeg”, vertelde ze Vox in een e-mail die via haar moeder werd verzonden. “Ik stopte met huilen en besloot voor mezelf op te komen.”
Voorstanders zeggen dat de wetten nodig zijn om studenten veilig te houden. Maar sommige experts die technologie en seksueel misbruik bestuderen, beweren dat deze waarschijnlijk onvoldoende zijn, omdat het strafrechtsysteem zo inefficiënt is geweest in het uitroeien van andere seksuele misdrijven. “Het voelt gewoon alsof het een symbolisch gebaar gaat worden”, zegt Amy Hasinoff, hoogleraar communicatie aan de Universiteit van Colorado in Denver, die seksueel misbruik op basis van beelden heeft bestudeerd.
Zij en anderen bevelen strengere regulering van de apps zelf aan, zodat de tools die mensen gebruiken om deepfake-naaktfoto’s te maken in de eerste plaats minder toegankelijk zijn. “Ik kan me moeilijk een reden voorstellen waarom deze apps zouden moeten bestaan” zonder enige vorm van toestemmingsverificatie, zei Hasinoff.
Deepfake-naaktfoto’s zijn een nieuw soort seksueel misbruik
Zogenaamde wraakporno – naaktfoto’s of video’s die zonder toestemming worden gedeeld – is al jaren een probleem. Maar met deepfake-technologie “kan iedereen gewoon een gezicht in deze app stoppen en een beeld krijgen van iemand – vrienden, klasgenoten, collega’s, wie dan ook – geheel zonder kleren”, zegt Britt Paris, assistent-professor bibliotheek- en informatiewetenschappen bij Rutgers. heeft deepfakes bestudeerd.
Er zijn geen harde gegevens over hoeveel Amerikaanse middelbare scholieren deepfake-naaktmisbruik hebben meegemaakt, maar uit een onderzoek uit 2021 in Groot-Brittannië, Nieuw-Zeeland en Australië bleek dat 14 procent van de respondenten in de leeftijd van 16 tot 64 jaar het slachtoffer was geworden van deepfake-beelden.
Naaktfoto’s die zonder toestemming worden gedeeld, kunnen traumatisch zijn, of ze nu echt zijn of niet. Toen ze voor het eerst hoorde over de deepfakes op haar school, “was ik emotioneel en huilend in het kantoor van de vertrouwenspersoon”, zei Mani. “Ik kon niet geloven dat ik een van de slachtoffers was.”
Wanneer seksuele beelden van leerlingen op school worden gedeeld, kunnen ze ‘shaming, beschuldiging en stigmatisering’ ervaren, dankzij stereotypen die vooral meisjes en vrouwen kleineren omdat ze seksueel actief zijn of lijken te zijn, zei Hasinoff. Dat is zelfs het geval als de afbeeldingen nep zijn, omdat andere leerlingen het verschil misschien niet kunnen zien.
Bovendien kunnen nepbeelden mensen hun hele leven achtervolgen en echte schade aanrichten. “Deze beelden brengen deze jonge vrouwen het risico te worden uitgesloten van toekomstige werkgelegenheid en maken hen ook kwetsbaar voor fysiek geweld als ze worden herkend”, vertelde Yeshi Milner, oprichter van de non-profitorganisatie Data for Black Lives, in een e-mail aan de media.
Voor het stoppen van deepfake-misbruik moet mogelijk rekening worden gehouden met AI
Om het probleem te bestrijden hebben ten minste negen staten wetten aangenomen of bijgewerkt die zich op de een of andere manier richten op deepfake-naaktafbeeldingen, en vele anderen overwegen deze. In Louisiana kan bijvoorbeeld iedereen die deepfakes van minderjarigen maakt of verspreidt, worden veroordeeld tot vijf jaar of meer gevangenisstraf . De nieuwe wet van Washington, die in juni van kracht wordt, behandelt een eerste overtreding als een misdrijf .
Het federale wetsvoorstel, voor het eerst geïntroduceerd in 2023, zou slachtoffers of ouders de mogelijkheid geven om daders te vervolgen voor schadevergoeding, naast het opleggen van strafrechtelijke sancties. Het heeft nog geen stemming gekregen in het Congres , maar heeft wel steun van beide partijen gekregen.
Sommige deskundigen zijn echter bezorgd dat de wetten, ook al kunnen ze nuttig zijn als waardenverklaring, niet veel zullen bijdragen aan de oplossing van het probleem. “We hebben geen rechtssysteem dat seksueel misbruik aankan”, zei Hasinoff, waarbij hij opmerkte dat slechts een klein percentage van de mensen die seksueel geweld plegen ooit wordt aangeklaagd. “Er is geen reden om aan te nemen dat dit op afbeeldingen gebaseerde misbruik anders is.”
Sommige staten hebben geprobeerd het probleem aan te pakken door hun bestaande wetten inzake afbeeldingen en video’s van seksueel misbruik van kinderen bij te werken met deepfakes. Hoewel dit de afbeeldingen misschien niet zal elimineren, zou het wel enkele mazen in de wet kunnen dichten. (In een recente rechtszaak in New Jersey betoogden de advocaten van een mannelijke middelbare scholier dat hem niet mocht worden uitgesloten van het delen van deepfaked-foto’s van een klasgenoot, omdat federale wetten niet bedoeld waren om van toepassing te zijn ‘op computergegenereerde synthetische afbeeldingen’.)
Ondertussen zeggen sommige advocaten en rechtsgeleerden dat de manier om deepfake-misbruik echt te stoppen is door je te richten op de apps die dit mogelijk maken. Wetgevers zouden app-winkels kunnen reguleren om te voorkomen dat ze nudificatie-apps aanbieden zonder duidelijke toestemmingsbepalingen, zei Hasinoff. Apple en Google hebben al verschillende apps verwijderd die deepfake-naaktbeelden aanboden uit de App Store en Google Play.
Gebruikers hebben echter geen specifieke app nodig om niet-consensuele naaktfoto’s te maken; veel AI- beeldgeneratoren zouden potentieel op deze manier kunnen worden gebruikt. Wetgevers zouden van ontwikkelaars kunnen eisen dat ze vangrails plaatsen om het voor gebruikers moeilijker te maken om niet-consensuele naaktfoto’s te maken, aldus Paris. Maar daarvoor zou het ‘ongecontroleerde ethos’ van AI vandaag de dag moeten worden uitgedaagd, waarbij ontwikkelaars eerst producten aan het publiek mogen vrijgeven en later de gevolgen mogen uitzoeken, zei ze.
“Totdat bedrijven verantwoordelijk kunnen worden gehouden voor de soorten schade die zij veroorzaken,” zei Paris, “zie ik niet veel veranderen.”