Het Amerikaanse ministerie van Justitie (DOJ) noemde de risico’s van AI-desinformatie en deepfakes als redenen waarom het geen audio wil vrijgeven van het interview met de speciale raadsman van Joe Biden over zijn omgang met geheime documenten.
Het DOJ concludeerde dat er geen basis was om Biden te vervolgen, maar het transcript van het interview werd een welkome brandstof voor critici van Bidens mentale vermogens en het vermogen om zich kandidaat te stellen voor een nieuwe termijn.
Het lezen van een transcriptie is één ding, het horen van de audio van de Amerikaanse president die worstelt met het onthouden van de datum waarop zijn zoon stierf of vergeten wie de president van Mexico was, is iets heel anders.
Het DOJ zegt dat het onvermogen om AI-desinformatie te bestrijden de reden is dat het de audio niet zal vrijgeven.
“Het verstrijken van de tijd en de vooruitgang op het gebied van audio, kunstmatige intelligentie en ‘deep fake’-technologieën vergroten alleen maar de zorgen over kwaadwillige manipulatie van audiobestanden. Als de audio-opname hier wordt vrijgegeven, is het gemakkelijk te voorzien dat deze op ongepaste wijze kan worden gewijzigd en dat het gewijzigde bestand kan worden doorgegeven als een authentieke opname en op grote schaal kan worden verspreid”, schreef de afdeling in haar rechtszitting .
Bradley Weinsheimer, adjunct-procureur-generaal van DOJ, zei dat als ze de audio zouden vrijgeven, er een “aanzienlijk risico zou bestaan dat kwaadwillende actoren de opname zouden kunnen wijzigen om (bijvoorbeeld) woorden in te voegen die president Biden niet heeft gezegd of woorden te verwijderen die hij wel heeft gezegd.”
Door AI gegenereerde stemklonen hebben slechts een paar seconden van de stem van een persoon nodig om overtuigend geluid te genereren. Een kloon van de stem van Joe Biden werd in januari gebruikt in een nep-robocall-campagne die kiezers ontmoedigde om te stemmen tijdens de voorverkiezingen.
In de indiening werd erkend dat het maken van een kloon van Bidens stem al mogelijk was.
Het zei. “Zeker, ander ruw materiaal om een deepfake van de stem van president Biden te creëren is al beschikbaar, maar het vrijgeven van de audio-opname brengt unieke risico’s met zich mee: als het publiekelijk bekend zou zijn dat de audio-opname is vrijgegeven, wordt het voor kwaadwillende actoren gemakkelijker om geef een gewijzigd bestand door als de echte opname.”
Uitvoerend directeur van het Oversight Project bij de Heritage Foundation Mike Howell gelooft dat de DOJ AI-deepfakes als een handig excuus gebruikt.
“Ze willen deze audio helemaal niet vrijgeven… Ze volgen de aanpak van de keukengootsteen en zijn absoluut in paniek dat ze geen enkel goed juridisch argument hebben om op te staan,” zei Howell.
Senator Mark Warner, de Democratische voorzitter van de Senaatsinlichtingencommissie, erkende het risico van AI-manipulatie, maar zei dat de audio moet worden vrijgegeven met ‘watermerkcomponenten’, zodat manipulatie kan worden gedetecteerd.
Ironisch genoeg hebben sommige Republikeinen publiekelijk gespeculeerd dat het transcript het interview niet nauwkeurig weergeeft.
AI-desinformatie en deepfakes hebben een onmiskenbaar ontwrichtend effect gehad op de mondiale politiek .
Maar het gemak waarmee nepbeelden, audio en video kunnen worden gemaakt, biedt ook een handig excuus voor politici die zich op een lastige plek bevinden.