
Het Verenigd Koninkrijk wil het eerste land ter wereld zijn dat nieuwe misdrijven creëert met betrekking tot door AI gegenereerd seksueel misbruik. Nieuwe wetten zullen het illegaal maken om AI-tools te bezitten, creëren of distribueren die zijn ontworpen om materiaal te genereren van seksueel misbruik van kinderen (CSAM), wat strafbaar is met maximaal vijf jaar gevangenisstraf. De wetten zullen het ook illegaal maken voor iedereen om zogenaamde “pedofielenhandleidingen” te bezitten die mensen leren hoe ze AI kunnen gebruiken om kinderen seksueel te misbruiken.
AI – In de afgelopen decennia is de dreiging voor kinderen door online misbruik in een zorgwekkend tempo toegenomen. Volgens de Internet Watch Foundation , die misbruik op het internet opspoort en verwijdert, is er sinds 2014 een stijging van 830% in online beelden van seksueel misbruik van kinderen. De prevalentie van AI-beeldgeneratietools voedt dit verder.
Vorig jaar publiceerden wij van het International Policing and Protection Research Institute aan de Anglia Ruskin University een rapport over de groeiende vraag naar online materiaal met kindermisbruik dat door AI is gegenereerd.
Onderzoekers analyseerden chats die in de afgelopen 12 maanden plaatsvonden op darkwebforums . We vonden bewijs van groeiende interesse in deze technologie en van de wens van online overtreders dat anderen meer te weten komen en misbruikafbeeldingen maken.
Schrikbarend genoeg noemden forumleden degenen die de AI-beelden maakten “kunstenaars”. Deze technologie creëert een nieuwe wereld van mogelijkheden voor overtreders om de meest verdorven vormen van kindermisbruikcontent te creëren en te delen.
Uit onze analyse bleek dat leden van deze forums niet-AI-gegenereerde afbeeldingen en video’s gebruiken die al tot hun beschikking staan om hun leerproces te vergemakkelijken en de software te trainen die ze gebruiken om de afbeeldingen te maken. Velen spraken hun hoop en verwachting uit dat de technologie zou evolueren, waardoor het voor hen nog gemakkelijker zou worden om dit materiaal te maken.
Dark web-ruimtes zijn verborgen en alleen toegankelijk via gespecialiseerde software. Ze bieden overtreders anonimiteit en privacy, waardoor het voor wetshandhaving moeilijk is om hen te identificeren en te vervolgen.
De Internet Watch Foundation heeft verontrustende statistieken gedocumenteerd over de snelle toename van het aantal door AI gegenereerde afbeeldingen die ze tegenkomen als onderdeel van hun werk. Het volume blijft relatief laag in vergelijking met de omvang van niet-AI-afbeeldingen die worden gevonden, maar de aantallen groeien met een alarmerend tempo.
De liefdadigheidsinstelling meldde in oktober 2023 dat er in een maand in totaal 20.254 door AI gegenereerde afbeeldingen werden geüpload naar één darkwebforum. Voordat dit rapport werd gepubliceerd, was er weinig bekend over de dreiging.
De gevaren van AI-misbruik
De perceptie onder overtreders is dat AI-gegenereerde beelden van seksueel misbruik van kinderen een misdaad zonder slachtoffers is, omdat de beelden niet “echt” zijn. Maar het is verre van ongevaarlijk, ten eerste omdat het kan worden gecreëerd op basis van echte foto’s van kinderen, inclusief beelden die volkomen onschuldig zijn.
Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.
Dank je en proost?
Wij van Indignatie AI zijn je eeuwig dankbaar
Hoewel we nog veel niet weten over de impact van specifiek door AI gegenereerd misbruik, is er een schat aan onderzoek naar de schade van online seksueel misbruik van kinderen, en hoe technologie wordt gebruikt om de impact van offline misbruik te bestendigen of te verergeren . Slachtoffers kunnen bijvoorbeeld blijvend trauma hebben door de permanentie van foto’s of video’s, alleen al door te weten dat de afbeeldingen er zijn. Daders kunnen ook afbeeldingen (echt of nep) gebruiken om slachtoffers te intimideren of chanteren.
Deze overwegingen maken ook deel uit van de voortdurende discussies over deepfake-pornografie , waarvan de overheid ook de creatie strafbaar wil stellen .
Al deze problemen kunnen worden verergerd met AI-technologie. Bovendien is er waarschijnlijk ook een traumatische impact op moderators en onderzoekers die misbruikbeelden tot in de kleinste details moeten bekijken om te bepalen of het “echte” of “gegenereerde” beelden zijn.
Wat kan de wet doen?
De Britse wet verbiedt momenteel het maken, verspreiden en bezitten van een aanstootgevende afbeelding of een pseudofoto (een digitaal gecreëerde fotorealistische afbeelding) van een kind.
Maar er zijn momenteel geen wetten die het een misdrijf maken om de technologie te bezitten om AI-beelden van seksueel misbruik van kinderen te creëren. De nieuwe wetten moeten ervoor zorgen dat politieagenten misbruikers kunnen targeten die AI gebruiken of overwegen om AI te gebruiken om deze content te genereren, zelfs als ze op dit moment niet in het bezit zijn van de beelden wanneer ze worden onderzocht.

We zullen altijd achter de overtreders aanlopen als het gaat om technologie, en wetshandhavingsinstanties over de hele wereld zullen binnenkort overweldigd worden. Ze hebben wetten nodig die hen helpen degenen te identificeren en vervolgen die kinderen en jongeren online willen uitbuiten.
Het is goed nieuws dat de overheid zich inzet om actie te ondernemen, maar het moet snel gebeuren. Hoe langer het duurt om de wetgeving in werking te laten treden, hoe meer kinderen het risico lopen om mishandeld te worden.
Het aanpakken van de wereldwijde dreiging vergt ook meer dan wetten in één land. We hebben een systeembrede respons nodig die begint wanneer nieuwe technologie wordt ontworpen. Veel AI-producten en -tools zijn ontwikkeld om volledig oprechte, eerlijke en onschadelijke redenen, maar ze kunnen gemakkelijk worden aangepast en gebruikt door overtreders die schadelijk of illegaal materiaal willen creëren.
De wet moet hier inzicht in hebben en hierop inspelen, zodat technologie niet kan worden gebruikt om misbruik te vergemakkelijken en zodat we onderscheid kunnen maken tussen degenen die technologie gebruiken om schade toe te brengen en degenen die technologie gebruiken om iets goeds te doen.