
Een door AI gegenereerde afbeelding van een neergestorte F-35. Afbeelding via X.com.
Er is weinig beeldmateriaal van het conflict en AI-gegenereerde content vult dat gat.
Terwijl Israël en Iran met elkaar in conflict raken en het conflict snel escaleert, dreigt ook de rest van de regio te treffen en er een directe confrontatie tussen Iran en de VS ontstaat, worden sociale media overspoeld met door AI gegenereerde media die beweren de verwoesting te tonen, maar dat is niet waar.
De nepvideo’s en -afbeeldingen laten zien hoe generatieve AI al een vast onderdeel is geworden van moderne conflicten . Aan de ene kant vult door AI gegenereerde content van onbekende oorsprong de leegte die is ontstaan door door de staat gesanctioneerde mediablokkades met desinformatie, en aan de andere kant delen de leiders van deze landen door AI gegenereerde rommel om de oudste vormen van xenofobie en propaganda te verspreiden.
Wil je een oorlog live volgen? Dat is makkelijker dan ooit. Telegram-kanalen plaatsen livestreams van bombardementen terwijl ze plaatsvinden en veel van de beelden sijpelen door naar X, TikTok en andere socialemediaplatforms. Er zijn meer beelden van conflicten dan ooit tevoren, maar veel ervan is nep.
Een paar dagen geleden meldden Iraanse nieuwsbronnen dat het Iraanse leger drie F-35’s had neergeschoten. Israël ontkende dit. Naarmate de bewering zich verspreidde, verspreidden zich ook vermeende beelden van het neergestorte toestel. Op één daarvan is een enorme versie van het toestel te zien die smeult op de grond naast een stad. De cockpit overschaduwt de nabijgelegen gebouwen en kleine mensen dwalen als lilliputters rond het neergestorte toestel rond Gulliver.
Het is nep, een overduidelijke, maar duizenden mensen deelden het online. Een andere foto van het zogenaamd neergestorte vliegtuig toonde aan dat het ergens midden in de nacht in een veld was neergestort . De vleugels waren verdwenen en de naverbrander gloeide nog. Ook dit was nep.

AI-slordigheid is niet het exclusieve domein van anonieme amateur- en professionele propagandisten. Ook de leiders van zowel Iran als Israël doen eraan mee. De hoogste leider van Iran plaatst door AI gegenereerde raketlanceringen op zijn X-account, een evenaring van soortgelijke grotesken op het account van de Israëlische minister van Defensie.
Nieuwe tools zoals Google’s Veo 3 maken AI-gegenereerde video’s realistischer dan ooit. Het Iraanse nieuwsmedium Tehran Times deelde een video met X die volgens hen “het moment vastlegde waarop een Iraanse raket een gebouw in Bat Yam, in het zuiden van Tel Aviv, raakte”. De video was nep. In een andere video, die afkomstig leek te zijn van een tv-nieuwsreclame, bewoog een enorme raket zich door een lange betonnen gang. Ook deze is duidelijk AI-gegenereerd en toont nog steeds het watermerk in de rechteronderhoek van Veo.
#BREAKING
Doomsday in Tel Aviv pic.twitter.com/5CDSUDcTY0— Tehran Times (@TehranTimes79) June 14, 2025
Nadat Iran een aanval op Israël had ingezet, deelde de Tehran Times beelden van wat volgens hen “de dag des oordeels in Tel Aviv” was. Een droneshot draaide rond beelden van verwoeste gebouwen en puinhopen. Net als de andere video’s was het een door AI gegenereerde nepvideo die verscheen op zowel een Telegram-account als een TikTok-kanaal met de naam “3amelyonn”.
In het Arabisch noemt het TikTok-kanaal van 3amelyonn zichzelf “Artificial Intelligence Resistance”, maar Telegram heeft geen dergelijke naam. Het plaatst al sinds 2023 berichten op Telegram en de eerste TikTok-video verscheen in april 2025. Deze toonde een door AI gegenereerde tour door Libanon, waarbij verschillende steden als rokende ruïnes werden getoond. De video zit vol met de trillende lijnen en andere hallucinaties die kenmerkend zijn voor vroege AI-video’s.
Maar de video’s van 3amelyonn, een maand later, zijn overtuigender. Een video die op 5 juni werd geplaatst , gelabeld als Luchthaven Ben-Gurion, toont gebombardeerde gebouwen en vernietigde vliegtuigen. De video is meer dan 2 miljoen keer bekeken. De video van een verwoest Tel Aviv, die de Tehran Times haalde, is meer dan 11 miljoen keer bekeken en werd geplaatst op 27 mei, weken voor het huidige conflict.
Hany Farid, hoogleraar aan de UC Berkeley en oprichter van GetReal , een bedrijf dat synthetische media detecteert, verzamelt deze nepvideo’s en ontkracht ze.
“Alleen al in de afgelopen 12 uur hebben we bij GetReal een stortvloed aan nepvideo’s gezien over het recente conflict tussen Israël en Iran. We hebben elk van deze visueel aantrekkelijke video’s aan Veo 3 kunnen koppelen”, aldus hij in een bericht op LinkedIn . “Het is geen verrassing dat generatieve AI-tools, naarmate ze steeds beter worden in fotorealisme, misbruikt worden om desinformatie te verspreiden en verwarring te zaaien.”
De verspreiding van door AI gegenereerde media over dit conflict lijkt bijzonder ernstig te zijn, omdat zowel Iran als Israël hun burgers vragen geen vernietigende media te delen, wat de andere partij kan helpen bij het bepalen van de doelwitten voor toekomstige aanvallen. Zo vroeg de Israel Defense Force (IDF) zaterdag mensen om “de locatie of documentatie van aanvallen niet te publiceren en te delen. De vijand volgt deze documentatie om zijn doelwitten beter te kunnen bepalen. Wees verantwoordelijk – deel geen locaties op het web!” Gebruikers op sociale media vullen dit vacuüm vervolgens met door AI gegenereerde media.
“Het slachtoffer in deze AI-oorlog is de waarheid”, vertelde Farid aan 404 Media. “Door de zaken te vertroebelen met AI-smurrie, kan elke partij nu beweren dat alle andere video’s die bijvoorbeeld een succesvolle aanval of mensenrechtenschendingen laten zien, nep zijn. De waarheid achterhalen in tijden van conflict is altijd al moeilijk geweest, en nu, in het tijdperk van AI en sociale media, is het nog moeilijker.”
“We zetten ons in voor een verantwoorde ontwikkeling van AI en hebben een duidelijk beleid om gebruikers te beschermen tegen schade en het gebruik van onze AI-tools te reguleren”, vertelde een woordvoerder van Google aan 404 Media. “Alle content die met Google AI wordt gegenereerd, heeft een SynthID-watermerk en we voegen ook een zichtbaar watermerk toe aan Veo-video’s.”
Farid en zijn team gebruikten SynthID om de nepvideo’s te identificeren “naast andere forensische technieken die we bij GetReal hebben ontwikkeld”, zei hij. Maar om een video te controleren op een SynthID-watermerk, dat visueel niet waarneembaar is, moet iemand de tijd nemen om de video te downloaden en te uploaden naar een aparte website. Mensen die af en toe op sociale media scrollen, nemen niet de tijd om een video die ze zien te verifiëren door deze naar de SynthID-website te sturen.
Een onderscheidend kenmerk van de video’s van 3amelyonn en anderen over virale AI-rommel over het conflict is dat de verwoesting beperkt blijft tot gebouwen. Er zijn geen mensen en geen bloed te zien in 3amelyonns luchtopnames van verwoesting, die eerder geblokkeerd worden door zowel AI-beeld- en videogenerators als de socialemediaplatforms waar deze creaties worden gedeeld. Als er een mens verschijnt, is het als toeschouwer, zoals op de foto van de F-35, of als ronddwalende soldaat, zoals in de tunnelvideo. Het is zeldzaam om een soldaat in actieve strijd of een gewonde te zien.
Er is geen gebrek aan echte, gruwelijke beelden uit Gaza en andere conflicten wereldwijd. AI-oorlogsspam is echter bijna altijd bloedeloos. Een jaar geleden werd de door AI gegenereerde afbeelding “All Eyes on Raffah” tientallen miljoenen keren bekeken . Deze werd gemaakt door een Facebookgroep met als doel “AI te laten floreren”.