
AI Spammers worden rijk door rampen en ellende uit te buiten
Hoe AI spammers geld verdienden met de branden in LA en andere natuurrampen.
Het Hollywood-bord stond in brand; of in ieder geval, het stond online. Die afbeeldingen en video’s waren nep en door AI gegenereerd. Misschien wist je dat al. Maar mensen verdienden er toch geld mee.
Begin januari plaatste het Instagram-account FutureRiderUS AI-video’s van een motor die door futuristische landschappen rijdt – vandaar de naam. Die video’s werden meestal tussen de 20.000 en 30.000 keer bekeken. Maar toen ontstond er een ware brand.
De volgende dag plaatste FutureRiderUS zijn eigen video van het vlammende Hollywood-bord. Die werd een miljoen keer bekeken.
Daarna plaatsten ze nog een AI-video, deze keer gericht op brandweerlieden die babydieren redden.
23 miljoen keer bekeken. 78.000 reacties, 2,5 miljoen likes.
Hoeveel geld ze verdienden? Het is moeilijk om precies te zeggen, maar we kunnen wel een schatting maken.
Instagram betaalt mensen via programma’s waarbij makers geld verdienen op basis van het aantal views dat hun Reels krijgen. Hoe viraler een video, hoe langer gebruikers op de app blijven, waardoor Instagram meer advertenties kan tonen. Instagram geeft vervolgens een deel van de winst door aan de maker. Hoeveel? Meta publiceert die cijfers niet, en het varieert afhankelijk van het publiek dat ze bekijkt. Maar ik heb het een paar influencers gevraagd, en het recente tarief lijkt rond de $ 100 tot $ 120 per miljoen views te liggen. Uit Jasons rapportage blijkt dat Facebook een paar honderd dollar kreeg voor één virale, door AI gegenereerde afbeelding, en Meta heeft meer dan $ 2 miljard uitgekeerd via programma’s zoals Ads on Reels.
Kijk maar eens naar de populairste berichten op FutureRiderUS van ongeveer 24 uur, beginnend op 10 januari: 1m + 24m + 6m + 6m + 45m + 4m + 8m, ≈ 94 miljoen weergaven.
Dat zijn 94 miljoen views, na het intypen van een paar prompts. Als ik het goed bekijk, is dit waarschijnlijk duizenden dollars waard. Geen slechte dag.
Na die eerste hit begon FutureRiderUS te experimenteren met verschillende combinaties van AI-materiaal met LA-brandthema, dat ze gaandeweg verfijnden. Aanvankelijk lag de focus op brandweerlieden die babydieren vasthielden. Toen de weergaven hiervan afnamen, schakelde het account over op video’s waarin dieren voor het vuur wegrennen; geen brandweerlieden nodig. Eén daarvan toont een zwaan die bloedend op een snelweg staat , zonder zichtbaar vuur.
Het is duidelijk wat hier aan de hand is: FutureRiderUS besefte dat dieren betrouwbare aandachtstrekkers zijn, maar ze experimenteren om te zien welke combinatie het meest winstgevend is. Ze testen de AI-methode met A/B-tests om te zien wat blijft hangen.
Als ik trouwens ‘slop’ zeg, bedoel ik dat deels letterlijk. In de populairste video stoot een man op onverklaarbare wijze rook uit onder zijn jas terwijl hij een uil vasthoudt. Een andere brandweerman lijkt, in plaats van een wasbeer te redden, hem terug de vlammen in te duwen . Het is slordig.
Toch lijken veel mensen zich er echt niet van bewust te zijn dat deze afbeeldingen nep zijn. Sommigen merken het en hebben er boos of gekscherend op gereageerd. (Een derde groep: mensen die in eerste instantie voor de gek gehouden worden, maar geïrriteerd raken wanneer een andere reageerder zegt dat het nep is. Ze zeggen dat ze het waarderen om afbeeldingen van heldhaftige brandweerlieden of kwetsbare dieren te zien, ook al zijn die specifieke afbeeldingen niet echt.)
FutureRiderUS heeft hier in zekere zin aandacht aan besteed.
In de reacties op hun meest virale bericht (45 miljoen keer bekeken) waarin een brandweerman twee babyberen in veiligheid brengt, plaatsten ze een reactie op boze reacties. Drie dagen na het eerste bericht gaven ze toe dat het bericht door AI is gegenereerd. Ze zeiden onder andere: (nadruk van mij):
In deze video wilde ik de realiteit van wat er gebeurt belichten. Deze problemen zijn heel reëel: dieren sterven, huizen worden verwoest en brandweerlieden riskeren hun leven om anderen te redden. Ze hebben geen tijd om visueel verbluffende en krachtige beelden te maken om het bewustzijn over deze problemen te vergroten. Daarom heb ik het initiatief genomen om iets te creëren dat mensen kan helpen deze tragedies te zien en er echt over na te denken. […]
Door middel van kunst, zelfs als die door AI is gemaakt, kunnen we emoties oproepen, bewustzijn creëren en verandering teweegbrengen.
De logica achter hun argument lijkt als volgt te zijn (mijn parafrase): Als ik deze provocerende beelden niet post, zal niemand zich bekommeren om de dappere brandweerlieden of de mensen die hun huis verloren.
Dit soort defensieve, het-maakt-niet-uit-als-het-nep- houding is iets wat we steeds meer opmerken, omdat het gebruikt wordt om het plaatsen (en het genereren van inkomsten) van alles, van Palestijnen tot slachtoffers van de overstromingen, te rechtvaardigen . Maar we mogen de context niet uit het oog verliezen: het hoofddoel van dit account is geld verdienen. Dat staat gewoon op de pagina.
Op 18 januari, terwijl de branden nog steeds woedden, plaatste FutureRiderUS een reclamefilmpje voor hun cursus van $ 19,99 over het maken van virale content online door het plaatsen van AI-video’s: ” Verdien $ 5000 per maand met virale video’s – Geen ervaring vereist – Begin vandaag nog en zie hoe je leven verandert.”
Voor de duidelijkheid: de man in de video hierboven is niet FutureRiderUS: de stem en video zijn door AI gegenereerd.
Het bericht schept ook op over hoe FutureRiderUS in één maand 285 miljoen keer bekeken is. Het bericht (en een eerder bericht ) verwijst kijkers naar de link in hun bio, die hen naar de cursus leidt die belooft hen te leren hoe ze het succes van FutureRiderUS kunnen evenaren. De landingspagina bevat screenshots van de virale video’s als bewijs van hun populariteit.
Uit hun advertentietekst: “Dit bewijst dat alles mogelijk is als je weet hoe je content kunt creëren die de aandacht trekt.”
Ook hier gaat het om het creëren van ‘content die de aandacht trekt’.
Niet ‘bewustwording creëren’. En dat de accounteigenaar suggereert dat hij of zij door iets anders dan geld wordt gemotiveerd, lijkt onoprecht. Er zijn geen donatielinks, geen vermelding van lokale organisaties. De enige oproep tot actie is om op de link te klikken om hun virale videocursus te kopen.
Normaal gesproken zou ik dit niet doen, maar voor de journalistiek heb ik de cursus gekocht. De cursus bevat twee bestanden. Het eerste is een pdf van tien pagina’s met brede regelafstand, die duidelijk via ChatGPT is gegenereerd. Mocht je nieuwsgierig zijn, hier is een samenvatting van de belangrijkste punten:
- Kijk online wat er momenteel trending is
- typ dat in Sora.ai om een vergelijkbare video te genereren
- voeg muziek toe en plaats de video online
- meerdere keren per dag herhalen
Niets wat je niet gratis online kunt vinden, of misschien raad je het zelf wel. De enige unieke onderdelen van de gids zijn twee regels die het suggereert: ten eerste dat je de post duidelijk moet markeren als door AI gegenereerd. FutureRiderUS lijkt deze regel niet te volgen, maar daarover later meer.
En dan vertelt het je dat je niet te veel tijd aan één video moet besteden. “Slechts 30 minuten is genoeg om van concept naar uiteindelijke upload te gaan”, adviseert het. En om dit punt te benadrukken, is er het tweede bestand: een .mp4, een schermopname van een iPhone die in zeven minuten van prompt naar upload gaat.
Je bent waarschijnlijk benieuwd wie er achter het account zit. Ik ook. Dus stelde ik ze wat vragen via Instagram DM.
Hier is een samenvatting van wat ze me vertelden: Ze zijn Russisch en zijn hier pas in december mee begonnen. OpenAI’s Sora was die maand uitgebracht, en ze kregen een account en begonnen AI-video’s te posten. Het succes kwam vrijwel direct. Ze vertelden me trots over hun hoge aantal volgers op verschillende socialemediaplatforms en hoe goed hun gids verkocht. Zoals ze het zelf zeggen: ‘de resultaten spreken voor zich.’
Toen ik naar hun video’s over de brand in LA begon te vragen, begonnen ze geïrriteerd te raken. Ik wees erop dat de meeste reageerders duidelijk niet begrepen dat het AI was. Degenen die dat wel deden, leken boos. FutureRiderUS zei dat ze het probleem niet zagen, omdat ze het label ‘AI’ aan hun video’s hadden toegevoegd.
Het punt is: FutureRiderUS heeft gelijk.
Op alle nep-vuurvideo’s die FutureRiderUS heeft geüpload, staat een ‘AI Info’-label. Niet op de video zelf, maar in de Instagram-interface. Het probleem is dat het label niet zichtbaar is wanneer je de video normaal bekijkt. Je kunt het alleen zien als je op de tag ‘Meer weergeven’ tikt, en zelfs dan krijgt de songtitel voorrang, waardoor de tag soms van het scherm verdwijnt. 2
Ik heb eigenlijk al een voorbeeld gegeven in dit artikel. Scrol terug naar boven en kijk naar de screenshots van het nep-brandende Hollywood-bord dat viraal ging. Die kleine ‘A…’ rechtsonder. Heb je hem gezien?
( Ik heb een video gemaakt die dit interfaceonderdeel wat visueel uitlegt . Ga naar 12:00).
Hieronder zie je het beste scenario. De linkerafbeelding toont hoe het bericht met 43 miljoen weergaven eruitziet vanaf het hoofdraster; het midden toont hoe het eruitziet wanneer je scrollt – dit is waar mensen de meeste tijd doorbrengen. De rechterafbeelding toont hoe het eruitziet als je de moeite neemt om de tekstbeschrijving te openen.
Rechtsonder staat in kleine letters ‘AI Info’. Niet ‘AI Waarschuwing’, niet ‘AI Let op’. Gewoon ‘AI Info’.
Waarom zou je hierop klikken?
Meta heeft een pagina die veel aandacht besteedt aan deze tag. Ze laten vooral zien hoe het eruitziet in de rasterweergave. Het probleem is dat het daar nog minder opvalt. Kijk eens naar de tag ‘Los Angeles, Californië’ in de afbeelding helemaal links hierboven. Linksboven, onder de gebruikersnaam. Wanneer je de post voor het eerst in de rasterweergave bekijkt, zie je dát: de locatietag. En dan scrollt de muziektitel even in beeld. Pas daarna verschijnt de tekst ‘AI Info’. Tegen die tijd kijk je naar de video, niet naar kleine tekstscrolls in de bovenhoek van je scherm.
Je moet ofwel 5,5 seconden wachten (ik heb de tijd gemeten) totdat de ‘AI-info’ verschijnt, of je moet onderaan het scherm zoeken .
Tijdens ons gesprek zei FutureRiderUS dat het niet de schuld van de poster is als mensen de AI-tag in de interface niet opmerken: het is de verantwoordelijkheid van Instagram om de tags groter of opvallender te maken.
FutureRiderUS hield vol dat ze de regels zoals geschreven volgden. Tijdens mijn gesprek met hen besefte ik dat ze waarschijnlijk correct waren. Maar voor de zekerheid stuurde ik een e-mail naar de persafdeling van Meta met de vraag of het toevoegen van de tag ‘AI Info’ voldoende was.
Ik heb nooit een reactie ontvangen, maar Meta heeft aan 404 Media en het grote publiek laten weten dat het geen probleem heeft met dit soort content en dat het verwacht dat er in de toekomst meer door AI gegenereerde content op zijn platforms zal verschijnen.
Dat gezegd hebbende, zijn er eenvoudige manieren om duidelijk te maken dat je bericht nep is. Sommige makers doen dit door de #AI-tag prominent aan het begin van het bericht te plaatsen en daaronder hun bijschrift te schrijven.
FutureRiderUS, in hun eigen gids die ze aan klanten verkopen, stelt voor om nog een stap verder te gaan en het zelfs in de post zelf te vermelden. Ik stuurde ze een citaat uit hun eigen gids:
Belangrijk : Geef aan dat deze content (of delen ervan) door AI is gegenereerd (bijv. ‘Gemaakt met AI’ of ‘Door AI gegenereerde content’).”
(Het vetgedrukte ‘ Belangrijk ‘ staat in het origineel.)
FutureRiderUS leek zich hier echt aan te ergeren en beschuldigde mij van intimidatie:
Waarom zou iemand me onder druk zetten of dwingen om iets te doen dat verder gaat dan de vastgestelde regels? Ik volg de richtlijnen van het platform, en alles wat daarbuiten valt, overschrijdt een grens. Dit soort gedrag kan als intimidatie worden beschouwd, omdat het me oneerlijk benadert en extra verwachtingen aan me oplegt die het platform niet vereist.
Als het nog niet duidelijk is: alles wat FutureRiderUS aan mij schreef, inclusief de bijschriften en opmerkingen, is gekopieerd en geplakt van ChatGPT.
Voor de duidelijkheid: ik ben er niet echt in geïnteresseerd om hier één persoon te bekritiseren. Bij gebrek aan strengere regels op Instagram komt dit gewoon neer op een ethische kwestie. Ik ben vrij om te geloven dat wat FutureRiderUS doet niet ethisch is; zij zijn vrij om het daar niet mee eens te zijn, of in ieder geval te doen alsof.
Maar geen van beide meningen doet ertoe, om twee redenen: nep-AI-slordigheid is winstgevend, en er zijn talloze gebruikers die hetzelfde doen. Er is absoluut niets dat hen kan stoppen.
Dat wil zeggen: het Instagram-platform maakt dit gedrag niet alleen mogelijk, het beloont het ook. Dat geldt ook voor andere platforms. Op Instagram en TikTok komen de tophits van FutureRiderUS van nepbranden in LA; op YouTube zijn het drie uur durende kerstcompilaties met slordige beelden van winkelende gezinnen. Geen van allen is duidelijk gelabeld. Rampenporno is gewoon een ander soort #content.
Het maakt niet zoveel uit wat voor content het is: zolang het maar ‘content is die de aandacht trekt’, kunnen beide partijen er geld mee verdienen.
Voor de maker van de slop en het platform is dit een duidelijke win-winsituatie, tenminste op de korte termijn. De enige verliezer is het publiek, dat de slop niet herkent als het er een ziet.
AI-voorstanders zeggen graag bij elke nieuwe ontwikkeling: dit is het ergste wat het ooit zal zijn. Tot nu toe hebben ze gelijk gehad, en dat zal misschien nog wel even zo blijven. Het is moeilijk te voorspellen wat er met AI gaat gebeuren, maar ik heb één voorspelling die ik met een gerust hart kan doen: zonder hulp zullen de meesten van ons altijd moeite hebben om AI betrouwbaar te herkennen wanneer we het zien.
Maar je kunt het ons moeilijk kwalijk nemen als twee partijen tegen ons samenspannen: de interface van Instagram maakt het bijna onmogelijk om dat te zien, en makers worden gestimuleerd om te liegen door iets weg te laten.
Een paar dagen na hun virale successen begonnen de kijkcijfers van FutureRiderUS’ content over branden te dalen. De branden zelf woedden nog steeds in Los Angeles, maar FutureRiderUS verlegde de focus. Op 14 januari, toen er gesprekken over een staakt-het-vuren in Gaza begonnen te circuleren, anticipeerde het account op de interesse in de trend en plaatste een bericht – zoals hun virale videogids suggereert.
Dit bericht is een AI-collage van een Palestijnse vlag bovenop een torenspits, een huilende vrouw terwijl lichamen en puin op straat liggen, kinderen, bebloede armen, zijwaarts lopende artsen. Het onderschrift is een vaag geformuleerde, onschuldige tekstblok die onder andere zegt: ‘Dit gaat niet over partij kiezen, het gaat over menselijkheid.’
Deze stap is volkomen duidelijk voor iedereen die de virale videogids van FutureRiderUS volgt of, eerlijk gezegd, voor iedereen die de vele boeken, artikelen, LinkedIn-berichten of video’s van contentmakers leest die je leren hoe je content kunt maken en je account kunt laten groeien.
Nogmaals, het draait allemaal om content. Content die de aandacht trekt. Natuurlijk zou iemand die tools en strategieën voor zoiets gebruiken. Zolang de platforms het toestaan en er geld mee blijven verdienen, is er geen reden om ermee te stoppen.
FutureRiderUS had besloten dat de algoritmische kracht uit Los Angeles was geperst. Doorgaan met content voor Palestina is gewoon een zakelijke beslissing.

De Palestina-post kreeg een paar reacties, van het gebruikelijke soort: hart-emoji’s, huilende emoji’s, iemand die mijmert over een wereldoorlog. Een van de reageerders lijkt totaal niet geïnteresseerd in Palestina, de ‘mensheid’ of een staakt-het-vuren. In plaats daarvan stellen ze de echte vraag:
Wat krijg ik als ik mij inschrijf voor uw cursussen?
Maar na bijna een dag had de video over Palestina nog niet eens de 10.000 views gehaald. Het was een flop.
Een paar uur later plaatste FutureRiderUS een video van een beer die honing eet .