Van Argentinië tot Slowakije benadrukken schijnbare deepfakes hoe door AI gegenereerde beelden kiezers in verwarring kunnen brengen
- De vooruitgang op het gebied van AI stimuleert de creatie van deepfake-video’s
- Van Argentinië tot Slowakije maken deepfakes indruk
- Deskundigen dringen aan op openbaarmakingsvereisten en controles van metagegevens
LONDEN/JOHANNESBURG/MELBOURNE AI – De rechtse libertariër Javier Milei heeft de historische verkiezingen in Argentinië gewonnen toen hij inspeelde op de woede van de kiezers over de politieke mainstream – inclusief de dominante peronistische partij van rivaal Sergio Massa, waarbij beide partijen zich tijdens de lastige verkiezingscampagne tot AI wendden.
In de laatste weken van de campagne publiceerde Milei een verzonnen afbeelding waarop Massa werd afgebeeld als een ouderwetse communist in militair gewaad, terwijl Massa’s team door AI gegenereerde afbeeldingen verspreidde waarin Milei en zijn team werden afgebeeld als woedende zombies en piraten.
Nu generatieve AI-tools zoals Midjourney het goedkoop en gemakkelijk maken om overtuigende deepfakes te creëren – of het nu stilstaande beelden of video’s zijn – groeit de bezorgdheid over de manier waarop dergelijk materiaal zou kunnen worden gebruikt om kiezers te misleiden of te verwarren in de aanloop naar verkiezingen .
Dit is wat u moet weten:
Wat zijn deepfake-video’s?
Sinds 2021 zijn deepfake-video’s breder beschikbaar en overtuigender geworden dankzij de enorme hoeveelheid gegevens die worden ingevoerd in AI-beeldgeneratoren zoals OpenAI’s Dall-E.
Dat betekent dat door AI gegenereerde inhoud steeds vaker opduikt in de politiek en verkiezingscampagnes, waardoor soms verwarring onder de kiezers wordt gezaaid en waardoor ze het vertrouwen verliezen in de waarheidsgetrouwheid van wat hen wordt gepresenteerd.
“Het kan leiden tot verkeerde informatie, mensen kunnen in verwarring raken door wat ze zien”, vertelde Lisa M. Gezien, hoogleraar informatiewetenschappen aan de RMIT Universiteit in Melbourne, aan Context.
Op bredere schaal wordt de technologie gebruikt als de nieuwe ‘politieke aanvalsmeme met lage of gemiddelde inspanning’ om tegenstanders in diskrediet te brengen of belachelijk te maken, zegt Scott Steinhardt, marketingdirecteur bij deepfake-detectiebedrijf Reality Defender.
Valse beelden en andere vormen van verkeerde informatie worden voornamelijk verspreid via sociale media, hoewel traditionele media zoals televisie en radio ook kunnen worden vervormd, zegt Adeboye Adegoke, senior manager bij de digitale rechtengroep Paradigm Initiative.
Waar zijn deepfakes gebruikt in verkiezingscampagnes?
Terwijl de campagnes in de aanloop naar de verkiezingen in oktober steeds heftiger werden, publiceerde de centrumrechtse Nieuw-Zeelandse Nationale Partij in mei een reeks door AI gegenereerde politieke advertenties op haar Instagram-account .
Een partijwoordvoerder bevestigde dat de beelden nep waren en zei dat het “ een innovatieve manier was om onze sociale media te besturen ”.
Bij de recente Turkse presidentsverkiezingen beschuldigde de belangrijkste rivaal van president Tayyip Erdogan Rusland ervan deepfake-inhoud vrij te geven in een poging de uitslag te beïnvloeden.
En in de Verenigde Staten is de video van DeSantis verre van het enige voorbeeld nu de verkiezingen van 2024 dichterbij komen. Clips van Hillary Clinton-, Joe Biden- en CNN-rapporten zijn bewerkt om rechtse politici te steunen .
In Slowakije probeerden factcheckers eerder dit jaar valse audio-opnamen te verifiëren die slechts enkele dagen vóór de verkiezingen van 30 september op Facebook waren geplaatst.
Maar in de meeste gevallen in Europa tot nu toe ging het om “kritische kunst, satire, memes en beeldmisbruik tegen vrouwelijke politici”, zegt Henry Ajder, een expert op het gebied van deepfakes en generatieve AI.
Concrete voorbeelden van deepfakes in de Afrikaanse politiek zijn beperkt, deels vanwege het relatieve gebrek aan internettoegang, hoewel desinformatie nog steeds een belangrijk probleem is dat politieke spanningen en geweld aanwakkert.
Hoe kunnen platforms en gebruikers deepfakes aanpakken?
Sommige entiteiten, zoals het Content Authenticity Initiative (CAI), een open standaardverificatiesysteem van Adobe waartoe ook andere grote technologiebedrijven zoals Microsoft en Canon behoren, stellen voor om metagegevens te gebruiken om te identificeren waar een afbeelding vandaan komt en hoe deze is bewerkt.
Metadata kunnen echter uit foto’s en video’s worden verwijderd, wat betekent dat er meer geavanceerde tools nodig zijn om AI-gestuurde vervalsing te detecteren, zeggen experts.
Hoewel deepfakes tegenwoordig gemakkelijker te maken zijn, blijft het moeilijk om overtuigende te produceren, zegt João Paulo Meneses, een Portugese deepfake-onderzoeker.
Hij zei dat toonaangevende technologiebedrijven zoals Meta en TikTok over voldoende AI-moderatietools beschikken om deepfakes ‘gevangen te houden in filters voor sociale media’, wat betekent dat hun makers ‘dagen aan werk en geld riskeren te verliezen’ voor weinig winst.
Wat kunnen toezichthouders doen tegen deepfakes?
Materiaal dat deepfake-afbeeldingen bevat, moet een openbaarmakingslabel dragen waarop staat dat ze zijn gegenereerd met behulp van AI, zeggen technische experts.
In de Verenigde Staten heeft congreslid Yvette Clarke een wetsvoorstel ingediend om de openbaarmaking van AI-gebruik in campagneadvertenties te eisen , dat nog moet worden aangenomen.
“In zekere zin is dit niet nieuw: we hebben acteurs in een reclamespot ingehuurd om een kandidaat te promoten, maar aan het einde van de reclamespot staat er altijd een kleine slogan eronder die zegt dat deze (mensen) acteurs zijn”, zei hij. Gegeven.
“(Dat betekent) dat mensen de informatie vervolgens in context kunnen plaatsen.”