Kunnen mensen leren om op betrouwbare wijze door AI gegenereerde vervalsingen te detecteren? Welke invloed hebben ze op ons op cognitief niveau?
OpenAI’s Sora-systeem gaf onlangs een voorproefje van een nieuwe golf van synthetische video en AI-aangedreven media. Het zal waarschijnlijk niet lang meer duren voordat enige vorm van realistische media – audio, video of beeld – binnen enkele seconden met aanwijzingen kan worden gegenereerd.
Naarmate deze AI-systemen steeds capabeler worden, zullen we nieuwe vaardigheden in kritisch denken moeten aanscherpen om waarheid van fictie te scheiden.
Tot nu toe hebben de inspanningen van Big Tech om deep fakes te vertragen of te stoppen niets anders opgeleverd dan sentiment, niet vanwege een gebrek aan overtuiging, maar omdat de huidige AI-inhoud zo realistisch is.
Dat maakt het moeilijk om op pixelniveau te detecteren , terwijl andere signalen, zoals metadata en watermerken, hun gebreken hebben.
Bovendien is het, zelfs als door AI gegenereerde inhoud op grote schaal detecteerbaar zou zijn, een uitdaging om authentieke, doelgerichte inhoud te scheiden van inhoud die bedoeld is om desinformatie te verspreiden.
Het doorgeven van inhoud aan menselijke reviewers en het gebruik van ‘community notes’ (informatie die aan de inhoud is gekoppeld, vaak te zien op X) biedt een mogelijke oplossing. Dit brengt echter soms subjectieve interpretatie met zich mee en het risico bestaat dat er sprake is van onjuiste etikettering. In het Israëlisch-Palestijnse conflict zijn we bijvoorbeeld getuige geweest van verontrustende beelden die als echt werden bestempeld terwijl ze nep waren, en omgekeerd.
Wanneer een echt beeld als nep wordt bestempeld, kan dit een ‘leugenaarsdividend’ creëren, waarbij iemand of iets de waarheid als nep kan afdoen.
Dus wat kunnen we eraan doen als er geen technische methoden zijn om deep fakes aan de technologische kant te stoppen?
En in welke mate beïnvloeden deep fakes onze besluitvorming en psychologie? Als mensen bijvoorbeeld worden blootgesteld aan valse politieke beelden, heeft dit dan een tastbare impact op hun stemgedrag?
Laten we eens kijken naar een paar onderzoeken die precies dat beoordelen.
Hebben deep fakes invloed op onze meningen en psychologische toestanden?
In een onderzoek uit 2020 , ‘Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News’, werd onderzocht hoe deep fake-video’s de publieke perceptie beïnvloeden, met name wat betreft het vertrouwen in nieuws dat op sociale media wordt gedeeld.
Het onderzoek omvatte een grootschalig experiment met 2.005 deelnemers uit Groot-Brittannië, bedoeld om de reacties op verschillende soorten deepfake-video’s van de voormalige Amerikaanse president Barack Obama te meten.
Deelnemers werden willekeurig toegewezen om een van de drie video’s te bekijken:
- Een fragment van vier seconden waarin Obama een verrassende verklaring aflegt zonder enige context.
- Een clip van 26 seconden die enkele hints bevatte over de kunstmatige aard van de video, maar die vooral misleidend was.
- Een volledige video met een “educatieve onthulling” waarin de kunstmatige aard van de deep fake expliciet werd onthuld, waarin Jordan Peele de technologie achter de deep fake uitlegt.
Belangrijkste bevindingen
De studie onderzocht drie belangrijke gebieden:
- Bedrog : De studie vond minimaal bewijs dat deelnemers de valse verklaringen in de deep fakes geloofden. Het percentage deelnemers dat door de deep fakes werd misleid, was in alle behandelingsgroepen relatief laag.
- Onzekerheid : Een belangrijk resultaat was echter de toegenomen onzekerheid onder de kijkers, vooral degenen die de kortere, misleidende clips zagen. Ongeveer 35,1% van de deelnemers die de clip van 4 seconden bekeken en 36,9% die de clip van 26 seconden zagen, gaf aan zich onzeker te voelen over de authenticiteit van de video. Daarentegen voelde slechts 27,5% van degenen die de volledige educatieve video bekeken zich zo.
- Vertrouwen in nieuws : deze onzekerheid had een negatieve invloed op het vertrouwen van deelnemers in nieuws op sociale media. Degenen die waren blootgesteld aan de bedrieglijke deepfakes vertoonden een lager vertrouwensniveau dan degenen die de educatieve onthulling hadden bekeken.
Dit laat zien dat blootstelling aan deep fake-beelden onzekerheid op de langere termijn veroorzaakt. Na verloop van tijd kunnen nepbeelden het vertrouwen in alle informatie verzwakken, inclusief de waarheid.
Soortgelijke resultaten werden aangetoond door een recenter onderzoek uit 2023 , ‘Face/Off: Changing the face of movies with deepfake’, waarin ook werd geconcludeerd dat nepbeelden langetermijneffecten hebben.
Mensen ‘herinneren’ nep-inhoud na blootstelling
Het Face/Off-onderzoek, uitgevoerd onder 436 deelnemers, onderzocht hoe deep fakes onze herinnering aan films zouden kunnen beïnvloeden.
Deelnemers namen deel aan een online-enquête die was ontworpen om hun percepties en herinneringen aan zowel echte als denkbeeldige filmremakes te onderzoeken.
De kern van het onderzoek was dat de deelnemers zes filmtitels kregen voorgeschoteld, waaronder een mix van vier echte filmremakes en twee fictieve films.
De films werden willekeurig verdeeld en gepresenteerd in twee formaten: de helft van de films werd geïntroduceerd door middel van korte tekstbeschrijvingen, en de andere helft werd gecombineerd met korte videoclips.
Fictieve filmremakes bestonden uit versies van ‘The Shining’, ‘The Matrix’, ‘Indiana Jones’ en ‘Captain Marvel’, compleet met beschrijvingen waarin ten onrechte werd beweerd dat spraakmakende acteurs bij deze niet-bestaande remakes betrokken waren.
Zo kregen de deelnemers te horen over een nep-remake van “The Shining” met Brad Pitt en Angelina Jolie in de hoofdrol, wat nooit is gebeurd.
De echte filmremakes die in het onderzoek werden gepresenteerd, zoals ‘Charlie & The Chocolate Factory’ en ‘Total Recall’, werden daarentegen nauwkeurig beschreven en vergezeld van echte filmfragmenten. Deze mix van echte en nep-remakes was bedoeld om te onderzoeken hoe deelnemers onderscheid maken tussen feitelijke en verzonnen inhoud.
Deelnemers werd gevraagd naar hun bekendheid met elke film, met de vraag of ze de originele film of de remake hadden gezien of er enige voorkennis van hadden.
Belangrijkste bevindingen
- Fenomeen van valse herinneringen : Een belangrijk resultaat van het onderzoek is de onthulling dat bijna de helft van de deelnemers (49%) valse herinneringen ontwikkelde aan het kijken naar fictieve remakes, zoals het voorstellen van Will Smith als Neo in ‘The Matrix’. Dit illustreert het blijvende effect dat suggestieve media, of het nu gaat om deep fake-video’s of tekstuele beschrijvingen, op ons geheugen kunnen hebben.
- Concreet stond “Captain Marvel” bovenaan de lijst, waarbij 73% van de deelnemers zich de AI-remake herinnerde, gevolgd door “Indiana Jones” met 43%, “The Matrix” met 42% en “The Shining” met 40%. Van degenen die ten onrechte in deze remakes geloofden, vond 41% dat de remake van “Captain Marvel” superieur was aan het origineel.
- Vergelijkende invloed van deep fakes en tekst : Een andere ontdekking is dat deep fakes, ondanks hun visuele en auditieve realisme, niet effectiever waren in het veranderen van de herinneringen van deelnemers dan tekstuele beschrijvingen van dezelfde fictieve inhoud. Dit suggereert dat het formaat van de verkeerde informatie – visueel of tekstueel – de impact ervan op geheugenvervorming binnen de context van film niet significant verandert.
Het fenomeen valse herinneringen dat bij dit onderzoek betrokken is, wordt uitgebreid onderzocht. Het laat zien hoe mensen effectief valse herinneringen construeren of reconstrueren waarvan we zeker weten dat ze echt zijn, terwijl dat niet het geval is.
Deep fakes activeren dit gedrag, wat betekent dat het bekijken van bepaalde inhoud onze perceptie kan veranderen, zelfs als we ons ervan bewust zijn dat deze niet authentiek is.
In beide onderzoeken hebben deep fakes tastbare, potentieel lange termijneffecten. Het effect kan ons besluipen en zich in de loop van de tijd ophopen.
We moeten ook niet vergeten dat nep-inhoud onder miljoenen mensen circuleert, waardoor kleine veranderingen in de perceptie over de hele wereldbevolking kunnen plaatsvinden.
Wat doen we tegen deepfakes?
Oorlog voeren met deep fakes betekent het bestrijden van het menselijk brein.
Hoewel de opkomst van nepnieuws en desinformatie mensen de afgelopen jaren heeft gedwongen nieuwe mediageletterdheid te ontwikkelen, zullen door AI gegenereerde synthetische media een nieuw aanpassingsniveau vereisen.
We zijn al eerder met dergelijke buigpunten geconfronteerd, van fotografie tot speciale CGI-effecten, maar AI zal een evolutie van onze kritische zintuigen vereisen.
We moeten nu verder gaan dan alleen maar onze ogen geloven en meer vertrouwen op het analyseren van bronnen en contextuele aanwijzingen.
Het is essentieel om de prikkels of vooroordelen van de inhoud te ondervragen. Komt het overeen met bekende feiten of spreekt het deze tegen? Is er ondersteunend bewijs uit andere betrouwbare bronnen?
Een ander belangrijk aspect is het vaststellen van wettelijke normen voor het identificeren van vervalste of gemanipuleerde media en het ter verantwoording roepen van makers.
De Amerikaanse DEFIANCE Act , de UK Online Safety Act en equivalenten wereldwijd stellen juridische procedures vast voor het omgaan met deepfakes.
Strategieën om de waarheid te onthullen
Laten we afsluiten met vijf strategieën voor het identificeren en ondervragen van potentiële deepfakes.
Hoewel geen enkele strategie feilloos is, is het bevorderen van een kritische mentaliteit het beste wat we gezamenlijk kunnen doen om de impact van desinformatie op basis van AI te minimaliseren.
- Bronverificatie : Het onderzoeken van de geloofwaardigheid en herkomst van informatie is een fundamentele stap. Authentieke inhoud is vaak afkomstig van gerenommeerde bronnen met een staat van dienst op het gebied van betrouwbaarheid.
- Technische analyse : Ondanks hun verfijning kunnen deep fakes subtiele gebreken vertonen, zoals onregelmatige gezichtsuitdrukkingen of inconsistente belichting. Onderzoek de inhoud nauwkeurig en overweeg of deze digitaal is gewijzigd.
- Kruisverwijzingen : het verifiëren van informatie aan de hand van meerdere vertrouwde bronnen kan een breder perspectief bieden en de authenticiteit van de inhoud helpen bevestigen.
- Digitale geletterdheid : Het begrijpen van de mogelijkheden en beperkingen van AI-technologieën is essentieel voor het beoordelen van inhoud. Onderwijs in digitale geletterdheid op scholen en in de media, inclusief de werking van AI en de ethische implicaties ervan, zal van cruciaal belang zijn.
- Voorzichtige interactie : interactie met door AI gegenereerde desinformatie zou de effecten ervan kunnen versterken. Wees voorzichtig met het liken/delen/herposten van inhoud waar u twijfels over heeft.
Naarmate deep fakes evolueren, zullen ook de technieken die nodig zijn om schade op te sporen en te beperken, evolueren. 2024 zal onthullend zijn, aangezien ongeveer de helft van de wereldbevolking naar verwachting zal stemmen bij grote verkiezingen.
Er zijn aanwijzingen dat deep fakes onze perceptie kunnen beïnvloeden, dus het is verre van bizar om te denken dat desinformatie op basis van AI een wezenlijke invloed op de uitkomsten zou kunnen hebben.
Naarmate we verder komen, zullen ethische AI-praktijken, digitale geletterdheid, regelgeving en kritische betrokkenheid van cruciaal belang zijn bij het vormgeven van een toekomst waarin technologie de essentie van de waarheid versterkt in plaats van verdoezelt.