AI versus verkiezingen: 4 essentiële artikelen over de dreiging van hightech- misleiding in de politiek
verkiezingen – Het is officieel. Joe Biden en Donald Trump hebben de nodige afgevaardigden veiliggesteld om door hun partijen genomineerd te worden voor het presidentschap bij de verkiezingen van 2024. Onvoorziene gebeurtenissen voorbehouden, zullen de twee deze zomer formeel worden genomineerd op de partijconventies en op 5 november tegenover elkaar staan in de stembus.
Het is een veilige gok dat deze, net als bij de recente verkiezingen , grotendeels online zal plaatsvinden en een krachtige mix van nieuws en desinformatie zal bevatten die via sociale media wordt verspreid. Nieuw dit jaar zijn krachtige generatieve kunstmatige intelligentie-instrumenten zoals ChatGPT en Sora die het gemakkelijker maken om “ de zone te overspoelen ” met propaganda en desinformatie en overtuigende deepfakes te produceren: woorden die uit de mond van politici komen die ze niet daadwerkelijk hebben gezegd en gebeurtenissen die zich eerder herhalen onze ogen, dat is eigenlijk niet gebeurd.
Het resultaat is een grotere kans dat kiezers worden misleid en, misschien net zo zorgwekkend, een groeiend gevoel dat je niets kunt vertrouwen wat je online ziet . Trump profiteert nu al van het zogenaamde leugenaarsdividend , de mogelijkheid om uw werkelijke woorden en daden af te doen als deepfakes. Trump suggereerde op 12 maart 2024 op zijn Truth Social-platform dat echte video’s van hem, getoond door leden van het Democratische Huis, werden geproduceerd of gewijzigd met behulp van kunstmatige intelligentie .
Het gesprek ging over de nieuwste ontwikkelingen op het gebied van kunstmatige intelligentie die het potentieel hebben om de democratie te ondermijnen. Hieronder vindt u een overzicht van enkele van deze artikelen uit ons archief.
1. Fake-evenementen
Het vermogen om AI te gebruiken om overtuigende vervalsingen te maken, is vooral lastig bij het produceren van vals bewijs van gebeurtenissen die nooit hebben plaatsgevonden. Computerbeveiligingsonderzoeker Christopher Schwartz van het Rochester Institute of Technology heeft deze situatie deepfakes genoemd .
“Het basisidee en de technologie van een deepfake-situatie zijn hetzelfde als bij elke andere deepfake, maar met een gedurfder ambitie: een echte gebeurtenis manipuleren of er een uit het niets verzinnen”, schreef hij.
Situatie-deepfakes kunnen worden gebruikt om een kandidaat te stimuleren of te ondermijnen, of om de opkomst bij verkiezingen te onderdrukken. Als je op sociale media berichten tegenkomt over gebeurtenissen die verrassend of buitengewoon zijn, probeer er dan meer over te weten te komen uit betrouwbare bronnen, zoals op feiten gecontroleerde nieuwsberichten, peer-reviewed wetenschappelijke artikelen of interviews met erkende experts, zei Schwartz. Realiseer je ook dat deepfakes kunnen profiteren van wat je geneigd bent te geloven.
2. Rusland, China en Iran richten zich
Uit de vraag wat door AI gegenereerde desinformatie kan doen volgt de vraag wie deze heeft gehanteerd. De huidige AI-instrumenten maken het voor de meeste mensen mogelijk om desinformatie te produceren, maar van bijzonder belang zijn landen die tegenstanders zijn van de Verenigde Staten en andere democratieën. Met name Rusland, China en Iran hebben uitgebreide ervaring met desinformatiecampagnes en technologie.
“Het voeren van een desinformatiecampagne houdt veel meer in dan het genereren van inhoud”, schreef veiligheidsexpert en docent aan de Harvard Kennedy School Bruce Schneier . “Het moeilijkste is de distributie. Een propagandist heeft een reeks nepaccounts nodig waarop hij kan posten, en andere om zijn bericht onder de aandacht te brengen, zodat het viraal kan gaan.”
Rusland en China hebben volgens Schneier een geschiedenis van het testen van desinformatiecampagnes op kleinere landen. “Om nieuwe desinformatiecampagnes tegen te gaan, moeten we ze kunnen herkennen, en om ze te herkennen moeten we ze nu zoeken en catalogiseren”, schreef hij.
3. Gezond scepticisme
Maar er zijn niet de middelen van schimmige inlichtingendiensten in machtige landen voor nodig om de krantenkoppen te halen, zoals de nep-Biden-robocall uit New Hampshire , geproduceerd en verspreid door twee individuen en bedoeld om sommige kiezers te ontmoedigen, illustreert. Die aflevering was voor de Federal Communications Commission aanleiding om robocalls te verbieden die stemmen gebruiken die door kunstmatige intelligentie worden gegenereerd.
Door AI aangedreven desinformatiecampagnes zijn moeilijk te bestrijden omdat ze via verschillende kanalen kunnen worden geleverd, waaronder robocalls, sociale media, e-mail, sms en websites, wat het digitale forensisch onderzoek bij het opsporen van de bronnen van de desinformatie bemoeilijkt, schreef Joan Donovan , een media- en desinformatiewetenschapper aan de Boston University.
“In veel opzichten levert AI-ondersteunde desinformatie, zoals de robocall uit New Hampshire, dezelfde problemen op als elke andere vorm van desinformatie”, schreef Donovan. “Mensen die AI gebruiken om verkiezingen te verstoren, zullen waarschijnlijk doen wat ze kunnen om hun sporen te verbergen. Daarom is het noodzakelijk dat het publiek sceptisch blijft over beweringen die niet afkomstig zijn van geverifieerde bronnen, zoals lokaal tv-nieuws of sociale media-accounts. van gerenommeerde nieuwsorganisaties.”
4. Een nieuw soort politieke machine
Door AI aangedreven desinformatiecampagnes zijn ook moeilijk te bestrijden omdat ze bots kunnen omvatten – geautomatiseerde sociale media-accounts die zich voordoen als echte mensen – en online interacties kunnen omvatten die zijn afgestemd op individuen , mogelijk in de loop van een verkiezing en mogelijk met miljoenen mensen.
De politicoloog Archon Fung van Harvard en de rechtsgeleerde Lawrence Lessig beschreven deze capaciteiten en schetsten een hypothetisch scenario van nationale politieke campagnes die deze krachtige instrumenten hanteerden.
Pogingen om deze machines te blokkeren zouden volgens Fung en Lessig in strijd kunnen zijn met de bescherming van de vrijheid van meningsuiting van het Eerste Amendement. “Een constitutioneel veiliger, zij het kleinere stap, die al gedeeltelijk is overgenomen door de Europese internettoezichthouders en in Californië, is het verbieden van bots om zichzelf voor te doen als mensen”, schreven ze. “Regelgeving zou bijvoorbeeld kunnen vereisen dat campagneberichten worden voorzien van disclaimers wanneer de inhoud die ze bevatten door machines wordt gegenereerd in plaats van door mensen.”