Deep fakes We zijn echt een tijdperk binnengegaan waarin je niet meer kunt vertrouwen op wat je online ziet.
Hoewel deze bewering al tientallen jaren gedeeltelijk waar is, heeft AI de manipulatie van inhoud Deep fakes naar een nieuw niveau getild, waardoor het publieke bewustzijn enorm is overtroffen.
AI deep fake-technologie kan afbeeldingen, video’s en audio-opnamen creëren en wijzigen, woorden in de mond van publieke figuren leggen of ze laten verschijnen in situaties die nooit hebben plaatsgevonden.
- Deep fakes van AI hebben invloed op het politieke discours, waardoor het moeilijker wordt om echt van nep te onderscheiden
- Politici over de hele wereld zijn het doelwit geweest, hoewel de impact moeilijk te meten blijft
- Technologiebedrijven hebben moeite met het aanpakken van deep fakes, omdat beleidsmakers krachtigere maatregelen aanbevelen
In veel gevallen is meer dan een tweede blik nodig om de authenticiteit van de inhoud vast te stellen, en nepmedia kunnen miljoenen vertoningen verzamelen voordat ze worden geïdentificeerd.
We zijn nu getuige van deep fakes die mogelijk democratische processen kunnen verstoren, hoewel het nog te vroeg is om tastbare gevolgen voor het stemgedrag te meten.
Laten we eens kijken naar enkele van de meest opvallende deep-fake-incidenten op het gebied van politieke AI die we tot nu toe hebben gezien.
Joe Biden-incident in New Hampshire
Januari 2024, New Hampshire, VS, een robocall die de stem van Biden nabootste , moedigde kiezers aan om “uw stem te bewaren voor de verkiezingen van november”, wat ten onrechte suggereerde dat deelname aan de voorverkiezingen onbedoeld ten goede zou komen aan Donald Trump.
Het werd toegeschreven aan Kathy Sullivan, het persoonlijke mobiele nummer van een voormalige voorzitter van de Democratische Partij. Sullivan veroordeelde de daad als een flagrante vorm van verkiezingsinmenging en persoonlijke intimidatie.
Het kantoor van de procureur-generaal van New Hampshire zei dat dit een illegale poging was om de presidentiële voorverkiezingen te verstoren en de opkomst van de kiezers te onderdrukken.
Er werd vastgesteld dat de verzonnen audio was gegenereerd met behulp van ElevenLabs, een marktleider op het gebied van spraaksynthese.
ElevenLabs schorste later de dader achter de nep-Biden-stem en zei: “We zijn toegewijd aan het voorkomen van misbruik van audio-AI-tools en nemen alle incidenten van misbruik uiterst serieus.”
Het deepfake-incident van de Duitse bondskanselier Olaf Scholz
In november 2023 was Duitsland getuige van een AI-deep-fake waarin bondskanselier Olaf Scholz ten onrechte een verbod op de extreemrechtse partij Alternative für Deutschland (AfD) onderschreef.
Deze deepfake-video maakte deel uit van een campagne van een kunstactivistische groep, het Centrum voor Politieke Schoonheid (CPB) , en heeft tot doel de aandacht te vestigen op de toenemende invloed van de AfD. Kritiek op de AfD wordt voorafschaduwd door de Duitse geschiedenis van de jaren dertig.
Onder leiding van filosoof en kunstenaar Philipp Ruch wil de CPB-groep ‘politieke poëzie’ en ‘morele schoonheid’ creëren, waarbij belangrijke hedendaagse kwesties als mensenrechtenschendingen, dictatuur en genocide worden aangepakt.
Het CPB is betrokken geweest bij tal van controversiële projecten, zoals de ‘Search for Us’-installatie nabij de Bondsdag , waarvan zij beweerden dat deze grond bevatte uit voormalige vernietigingskampen en overblijfselen van slachtoffers van de Holocaust.
Terwijl de steun voor de AfD is gegroeid, tonen talrijke protesten in heel Duitsland een sterke oppositie tegen de ideologieën van de AfD aan.
Een woordvoerder van de groep achter de deep fake verklaarde: “In onze ogen is het rechtsextremisme in Duitsland dat in het parlement zit gevaarlijker.”
AfD-functionarissen noemden de deep fake-campagne een misleidende tactiek die erop gericht was de partij in diskrediet te brengen en de publieke opinie te beïnvloeden.
Britse premier Rishi Sunak betrokken bij oplichting
In januari 2024 ontdekte een Brits onderzoeksbureau dat premier Rishi Sunak betrokken was bij meer dan 100 misleidende videoadvertenties die voornamelijk op Facebook werden verspreid en waarmee naar schatting 400.000 personen werden bereikt.
Deze advertenties, afkomstig uit verschillende landen, waaronder de VS, Turkije, Maleisië en de Filippijnen, maakten reclame voor frauduleuze investeringsplannen die ten onrechte werden geassocieerd met spraakmakende figuren als Elon Musk.
Het onderzoek, uitgevoerd door het online communicatiebedrijf Fenimore Harper , benadrukte hoe socialemediabedrijven eenvoudigweg niet binnen een redelijk tijdsbestek op deze vorm van inhoud reageren.
Marcus Beard, de oprichter van Fenimore Harper, legde uit hoe AI desinformatie democratiseert: “Met de komst van goedkope, gebruiksvriendelijke stem- en gezichtsklonen is er heel weinig kennis en expertise nodig om de gelijkenis van een persoon voor kwaadaardige doeleinden te gebruiken.”
Beard bekritiseerde ook de ontoereikendheid van de inhoudsmoderatie op sociale media en merkte op: “Deze advertenties zijn in strijd met verschillende advertentiebeleidslijnen van Facebook. Het lijkt er echter op dat maar heel weinig van de advertenties die we tegenkwamen, zijn verwijderd.”
De Britse regering reageerde op het risico van frauduleuze deep fakes: “We werken intensief samen met de hele regering om ervoor te zorgen dat we klaar zijn om snel te reageren op eventuele bedreigingen voor onze democratische processen via onze verdedigende democratie-taskforce en toegewijde regeringsteams.”
De Pakistaanse premier Imran Khan verschijnt in een virtuele bijeenkomst
In december 2023 verscheen de voormalige premier van Pakistan, Imran Khan, die momenteel gevangen zit op beschuldiging van het lekken van staatsgeheimen, op een virtuele bijeenkomst met behulp van AI .
Ondanks dat hij achter de tralies zat, werd Khan’s digitale avatar opmerkelijk door miljoenen bekeken. De bijeenkomst bevatte beelden van eerdere toespraken waarbij zijn politieke partij, Pakistan Tehreek-e-Insaaf (PTI), betrokken was.
Khan’s vier minuten durende toespraak sprak over veerkracht en verzet tegen de politieke repressie waarmee PTI-leden worden geconfronteerd.
De AI-stem verwoordde: “Onze partij mag geen openbare bijeenkomsten houden. Onze mensen worden ontvoerd en hun families worden lastiggevallen”, vervolgt hij, “de geschiedenis zal zich uw offers herinneren.”
De Pakistaanse regering bracht de situatie in verwarring en zou hebben geprobeerd de toegang tot de bijeenkomst te blokkeren.
NetBlocks, een organisatie voor internetmonitoring, verklaarde: “Uit cijfers blijkt dat grote sociale-mediaplatforms in Pakistan op zondagavond [bijna] 7 uur lang verboden waren tijdens een online politieke bijeenkomst; Het incident komt overeen met eerdere gevallen van internetcensuur gericht tegen oppositieleider Imran Khan en zijn partij PTI.”
ℹ️ ICYMI: Metrics show major social media platforms were restricted in #Pakistan for ~7 hours on Sunday evening during an online political gathering; the incident is consistent with previous instances of internet censorship targeting opposition leader Imran Khan and his party PTI https://t.co/AS9SdfwqoH pic.twitter.com/XXMYBhknXd
— NetBlocks (@netblocks) December 18, 2023
Usama Khilji, een voorstander van de vrijheid van meningsuiting in Pakistan, merkte op: “Met een volledig optreden tegen het recht van PTI op vrijheid van vereniging en meningsuiting via arrestaties van leiders, zal het gebruik van kunstmatige intelligentie door de partij om een virtuele toespraak uit te zenden in de woorden van de gevangengenomen voorzitter en voormalig premier Imran Khan markeert een nieuw punt in het gebruik van technologie in de Pakistaanse politiek.”
Valse audio van ex-Soedanese president Omar al-Bashir op TikTok
Een door AI aangedreven campagne op TikTok maakte gebruik van de stem van de voormalige Soedanese president Omar al-Bashir te midden van de aanhoudende burgerlijke onrust in het land.
Sinds eind augustus 2023 plaatste een anoniem account zogenaamde “gelekte opnames” van al-Bashir. Analisten stelden echter vast dat de opnames door AI gegenereerde vervalsingen waren.
al-Bashir’ is uit het publieke oog verdwenen sinds hij in 2019 het land werd uitgezet vanwege beschuldigingen van ernstige oorlogsmisdaden.
Audiofraude op de verkiezingsdag van Slowakije
Op de dag van de Slowaakse verkiezingen was er in een controversiële audio sprake van vervalsingen van Michal Šimečka, leider van de partij Progressief Slowakije, en journaliste Monika Tódová, die corrupte praktijken zoals het kopen van stemmen bespraken.
Dit kwam aan het licht tijdens de media-black-out voorafgaand aan de verkiezingen in Slowakije, waardoor de betrokken personen hun betrokkenheid niet gemakkelijk vóór de verkiezingen publiekelijk konden weerleggen.
Beide betrokken partijen veroordeelden de opname later als een deep fake , wat een bureau voor feitencontrole bevestigde.
Volodymyr Zelenskiy’s Deep fakes
In 2023 werd een deepfake-video van de Oekraïense president Volodymyr Zelenskiy, die op amateuristische wijze suggereerde dat hij soldaten opriep hun posten te verlaten, snel als nep geïdentificeerd en verwijderd door grote sociale-mediaplatforms.
Turks verkiezingsdrama
In de aanloop naar de parlements- en presidentsverkiezingen in Turkije werd online een video verspreid waarop ten onrechte te zien was dat de belangrijkste uitdager van president Recep Tayyip Erdoğan, Kemal Kılıçdaroğlu, steun kreeg van de PKK.
Diepe vervalsingen van Donald Trump
Begin 2023 waren we getuige van realistisch ogende deep fakes van de arrestatie van Donald Trump en een campagnevideo van Ron DeSantis met door AI gegenereerde beelden van Trump die Anthony Fauci omhelsde.
De deep fake van Trump van de Belgische politieke partij
Een eerder incident in 2018 in België veroorzaakte politieke opschudding toen een deep fake-video gemaakt door een politieke partij publieke verontwaardiging veroorzaakte.
In de video is ten onrechte te zien hoe president Donald Trump België adviseert zich terug te trekken uit het klimaatakkoord van Parijs.
De video maakte deel uit van een hightech vervalsing, die later werd erkend door het mediateam van de partij. Het liet zien hoe deep fakes kunnen worden gebruikt om verklaringen van wereldleiders te verzinnen om de publieke opinie en het beleid te beïnvloeden.
Diepe nep van Nancy Pelosi
Een gemanipuleerde video van Nancy Pelosi in 2020, die de indruk wekte alsof ze haar woorden onduidelijk en bedwelmd was, verspreidde zich snel op sociale media.
Dit toonde het potentieel aan van deep fakes om publieke figuren in diskrediet te brengen en in verlegenheid te brengen, wat vaak blijft bestaan nadat de inhoud als nep wordt beschouwd.
Audio-deepfake van Keir Starmer
Een ander incident in de Britse politiek betrof een audiofragment waarin oppositieleider Sir Keir Starmer naar verluidt vloekte tegen zijn staf.
De clip, die op grote schaal werd verspreid op sociale media, bleek later een door AI gegenereerde deep fake te zijn.
Terwijl technologiebedrijven manieren onderzoeken om deep fakes op grote schaal aan te pakken, zullen de AI-modellen die worden gebruikt om nepmedia te creëren alleen maar geavanceerder en gemakkelijker te gebruiken worden.
De komende reis vereist een gezamenlijke inspanning van technologen, beleidsmakers en het publiek om de voordelen van AI te benutten en tegelijkertijd de pijlers van vertrouwen en integriteit in onze samenleving te beschermen.
Het vertrouwen in de politiek en publieke instellingen is op zijn zachtst gezegd al zwak. Deep fakes zullen het verder ondermijnen.