Hoe Poetin op het punt staat om door AI gecreëerde deepfake PORN te bewapenen met een cyberleger in een poging democratieën in het Westen af te breken
Rusland heeft al deepfakeporno gebruikt om zijn vijanden aan te vallen – en er is maar één beeld nodig om chaos te veroorzaken.
Poetin zou door AI gegenereerde deepfake-pornografie kunnen gebruiken om westerse democratieën te ontwrichten en af te breken, waarschuwde een inlichtingenanalist.
Nina Jankowicz, voormalig uitvoerend directeur van de desinformatietaskforce van het Amerikaanse ministerie van Binnenlandse Veiligheid, vertelde The Sun dat ze “echt bezorgd” is over het risico van AI in de handen van Rusland.
Professor Jankowicz, die in Rusland heeft gestudeerd en heeft samengewerkt met het ministerie van Buitenlandse Zaken van Oekraïne, analyseert Russische operaties die gericht zijn op het verzwakken van democratieën over de hele wereld.
Ze vertelde The Sun dat Rusland al deepfake-porno heeft gebruikt om zijn vijanden aan te vallen – en dat er slechts één echt beeld nodig is om de alomtegenwoordige AI-naaktbeelden te genereren.
En de AI-expert denkt dat de ‘zieke’ nepporno zeker deel uitmaakt van Ruslands ‘geseksualiseerde draaiboek’ als het gaat om het verzwakken van meer landen in het Westen.
Ze zei zelfs dat sommige van de Russische cybercriminelen die de alomtegenwoordige beelden produceren, handelen op direct bevel van Poetin.
Jankowicz legde uit dat hoewel AI een “transformatieve technologie” kan zijn, het in de verkeerde handen ongelooflijk gevaarlijk kan zijn.
De snelle opkomst van dergelijke technologie heeft ‘een geheel nieuw niveau van dreiging’ gecreëerd en is een ‘geweldige manier om het machtsevenwicht te verstoren’.
“De overgrote meerderheid van de deepfakes online bestaat uit deepfake-pornografie van vrouwen zonder wederzijds goedvinden”, vertelde ze aan The Sun.
En Rusland heeft deze angstaanjagende methode al gebruikt om “vrouwen aan te vallen die deel uitmaken van de democratieën” in Oekraïne en Georgië.
“Als ik Rusland was, zou ik overwegen om deep-fake-pornografie te gebruiken om democratieën te ondermijnen… om het machtsevenwicht te verstoren.”
“Het targeten van vrouwen is een geweldige manier om dit te doen”, waarschuwde ze.
Jankowicz vertelde The Sun dat 96% van de deepfake-afbeeldingen online pornografie zijn.
‘We bevinden ons in een tijdperk waarin één enkele foto van een vrouw kan worden gebruikt om een realistische deepfake te creëren.
“Rusland zet deze op zeer strategische manieren in. Ze scheuren aan de structuur, de kwetsbaarheden van de samenleving, de vrouwonvriendelijke neigingen.”
Het is ziek… Ik wil de slechteriken niet laten winnen
Nina Jankowicz
“Het geseksualiseerde draaiboek maakt al heel lang deel uit van hun instrumenten en tactieken”, legde ze uit.
‘Als je een kandidaat voor een ambt of een hoge militaire functionaris van streek wilt maken, is dit een goede manier om haar geloofwaardigheid te schaden.
“Het is echt alomtegenwoordig.”
Het resultaat is dat andere vrouwen terughoudender zijn om publieke of hoge posities in de regering, de strijdkrachten en meer op zich te nemen, wat het evenwicht van een moderne en democratische samenleving verstoort.
Jankowicz, die ook twee boeken over desinformatie en vrouwen online heeft geschreven, is zelfs zelf het doelwit geweest.
In How to be a Woman Online: Surviving Abuse and Harassment, and How to Fight Back vertelt ze over haar eigen ervaringen met deepfake-porno.
Nina vertelde The Sun: “De deepfakes van mij zijn gemaakt in de weken nadat ik in 2022 ontslag nam uit de regering.
“Ik heb ze daarna een tijdje niet ontdekt, het was een Google-alert die me op de hoogte bracht.
‘Natuurlijk maakte het deel uit van een bredere inmenging in het openbare leven en daarom blijf ik erover praten.
“Het is ziek”, zei ze, “ik wil de slechteriken niet laten winnen”.
Handelen Russische cybergroepen op bevel van het Kremlin?
Nina vertelde The Sun dat de Russische cybergroepen die deze perverse beelden en clips produceren dit mogelijk op direct bevel van Poetin doen.
‘We hebben de Russische veiligheidsdiensten eerder bij dit soort zaken betrokken zien raken, vooral bij Russische oppositiefiguren.
‘Het Kremlin heeft deze groepen rechtstreeks in dienst via de veiligheidsdiensten, of heeft misdaadverdragen met hen gesloten.
“De criminelen zullen het gebruiken als een gunst om hen uit de gevangenis te houden.”
Het idee is om de geloofwaardigheid van een vrouw te ondermijnen… door haar een paar pinnen omver te werpen. Ze beschouwen het als een straf voor de vrouwen die ze uitbeelden
Nina Jankowicz
Het Russische regime heeft historisch gezien gezien dat veiligheidsdiensten enorme hoeveelheden tijd en geld besteden aan het bespioneren van zijn vijanden, en het kan nu kunstmatig de informatie genereren die ze willen gebruiken, waarschuwde ze.
En als ze op deze manier rechtstreeks met westerse regeringen zouden spelen, zouden ze zich richten op spraakmakende individuen.
‘Als ze zich op deze manier zouden bemoeien, zou het een doelwit van behoorlijk hoge waarde moeten zijn.
“Ik denk dat het mogelijk is dat ze naar overheidsfunctionarissen kijken… een kabinetssecretaris of een hooggeplaatste aangestelde.”
Nu we een jaar van verkiezingen ingaan, zegt Nina in de VS, Groot-Brittannië en tientallen andere landen dat ze “absoluut bezorgd” is over het vooruitzicht van door AI gegenereerde porno.
‘Als je kijkt naar de manier waarop dit eerder tegen vrouwen in de politiek in democratische landen is gebruikt, is het al zo’n acht jaar een groot probleem.
Ik denk dat het mogelijk is dat ze naar overheidsfunctionarissen kijken… een kabinetssecretaris of een hoge aangestelde
Nina Jankowicz
“Het is toegestaan om te blijven bestaan zonder veel tussenkomst van de technologiebedrijven of de overheid.
“Als ik kijk naar de kwetsbaarheden die we hebben in de westerse samenleving, is vrouwenhaat daar zeker één van en weten we dat Rusland eerder een soort vrouwonvriendelijke retoriek en vrouwonvriendelijke desinformatie heeft gebruikt.”
Deepfake-porno in Oekraïne en Georgië
Nina geeft een voorbeeld van het Oekraïense parlementslid Svitlana Zalishchuk die zeven jaar geleden het doelwit was van deepfake-porno.
In 2017 zagen nep-AI-posts online van een tweet die door Zalishchuk leek te zijn geschreven haar beloven naakt over straat te rennen in Kiev als Oekraïne een belangrijke strijd zou verliezen.
Het was echt verontrustend dat een journalist uit een Europees land dit zo serieus zou nemen en het ter sprake zou brengen als de Verenigde Naties
Nina Jankowicz
Naast de post stonden valse afbeeldingen van haar volledig naakt.
Jankowicz vertelde The Sun dat de schijnbaar echte post zo viraal ging “een verslaggever vroeg haar er vervolgens naar tijdens een VN-bijeenkomst voor vrouwen”.
“Het was echt verontrustend dat een journalist uit een Europees land dit zo serieus zou nemen en het ter sprake zou brengen als de Verenigde Naties”, zei Nina.
“Op dezelfde manier zijn er sekstape-schandalen geweest in Georgië”, een land waar Nina zei dat het de thuisbasis is van criminele groepen die “onder één hoedje spelen met het Kremlin”.
“Rusland kon sekstapes gebruiken die aan bepaalde vrouwen werden toegeschreven maar niet daadwerkelijk van hen waren, of hen daadwerkelijk bespioneren omdat ze betrokken waren bij buitenechtelijke affaires of in hun eigen slaapkamers.”
Nina vertelde The Sun dat Rusland een patroon heeft om oppositiefiguren dit aan te doen, en het idee erachter is om hen “te schande te maken van het openbare leven”.
Ze voegde eraan toe: “Het seksualiseren van hen, vooral in een land als Georgië, dat erg traditioneel is, kan zeer schadelijk voor hen zijn.”
“Er zijn verschillende vrouwen geweest die dit is overkomen en die het openbare leven volledig hebben verlaten.”
De opkomst van deepfakes
DEEPFAKE-porno is niets nieuws, maar heeft de afgelopen jaren meer aandacht gekregen omdat steeds bekendere doelwitten er het slachtoffer van worden.
De term werd voor het eerst bedacht in 2017, toen de gezichten van spraakmakende figuren werden gefotoshopt of gemonteerd op pornografische inhoud.
In zijn vroege vorm zou een combinatie van machine-learning-algoritmen worden gebruikt met AI-software om ze te maken.
Maar naarmate AI steeds geavanceerder wordt, kunnen zeer realistische beelden gemakkelijk helemaal opnieuw worden gemaakt – met behulp van de meest bescheiden foto’s.
Nog maar een paar weken geleden werd megaster Taylor Swift blootgesteld aan expliciete deepfake-beelden die online werden gezet.
Ongetwijfeld de beroemdste persoon die ooit het slachtoffer is geworden van de gevaarlijke technologie; een van de beelden werd ongeveer 45 miljoen keer bekeken.
Andere beroemde vrouwen die door de jaren heen het doelwit zijn, zijn onder meer Gal Gadot, Emma Watson, Natalie Portman en Scarlett Johansson.
Professor Jankowicz is op de hoogte van vier grote websites die gespecialiseerd zijn in de afbeeldingen, maar er bestaan nog veel meer subthreads, kopieën en sites op internet en regelgeving is moeilijk gebleken.
Regeringen, wetenschappers en inlichtingenanalisten zoals Jankowicz zoeken steeds meer naar manieren om deze verwrongen technologie te bestrijden.
Voorbeelden in Groot-Brittannië
Cara Hunter, een Noord-Ierse politica, zag een neppornovideo waarin haar beeltenis werd gebruikt, online gepubliceerd toen ze zich kandidaat stelde voor de verkiezingen in april 2022.
Het werd tienduizenden keren online gedeeld en leidde ertoe dat ze zelfs terwijl ze op straat liep seksueel werd lastiggevallen.
Een van de eerste ‘deep fake’ politieke incidenten in Groot-Brittannië – en de eerste met zo’n prominente figuur – was gericht tegen Labour-leider Keir Starmer.
In oktober 2023 circuleerde een audiofragment van Starmer online, waarin hij blijkbaar tegen zijn personeel vloekte.
Er dook nog een valse soundbite op van de Londense burgemeester Sadiq Khan, die impliceerde dat hij tegen de herdenkingen op Remembrance Day was en in plaats daarvan voorstander was van een pro-Palestijnse mars.
Hoewel geen van beide pornografisch was, waren ze overtuigend voor mensen online en verspreidden ze zich snel.
De Britse voorzitter van de kiescommissie waarschuwde onlangs ook dat vrouwelijke parlementsleden rechtstreeks het doelwit zouden kunnen zijn van deepfake-porno, vooral in de aanloop naar de algemene verkiezingen van dit jaar.
John Pullinger vertelde de Financial Times enkele weken geleden dat AI “de echte campagne zou kunnen blokkeren”.
En hij waarschuwde dat elke valse, door AI gegenereerde pornografie “veel meer gericht zou zijn op vrouwelijke kandidaten”.
2024 is een cruciaal jaar voor deepfake AI
Een studie van de Universiteit van Oxford, enkele weken geleden, concludeerde dat AI dit jaar “door de informatieruimte zal razen in een tijd van intense politieke en economische volatiliteit over de hele wereld”.
Dit is volgens hen bijzonder gevaarlijk in een jaar waarin er verkiezingen zijn in meer dan veertig democratieën over de hele wereld en oorlogen op verschillende continenten.
De studie waarschuwde voor ‘slechte actoren’ die technologie zoals AI zouden kunnen gebruiken om de uitslag van de verkiezingen in 2024 te beïnvloeden.
Big tech werkt hard en snel om de dreiging van dergelijke realistische desinformatie online tegen te gaan, maar het is op dit moment moeilijk te beoordelen of ze in staat zullen zijn dit effectief en consistent te doen.