
-
Franse vrouw voor € 800.000 opgelicht door deepfake Brad Pitt
-
Oplichters lanceerden een 18 maanden durende campagne van misleiding
-
Deepfake-fraude neemt toe naarmate de AI-technologie vordert
AI deepfake – Wat begon als een bericht op Instagram over een skivakantie, eindigde in een financiële ramp voor een Franse interieurontwerper nadat oplichters AI gebruikten om haar ervan te overtuigen dat ze een relatie had met Brad Pitt.
De 18 maanden durende oplichting was gericht op Anne, 53, die een eerste bericht ontving van iemand die zich voordeed als Jane Etta Pitt, de moeder van Brad, en beweerde dat haar zoon “een vrouw als jij nodig had.”
Niet lang daarna begon Anne te praten met iemand waarvan zij dacht dat het de Hollywoodster zelf was, inclusief door AI gegenereerde foto’s en video’s.
“We hebben het hier over Brad Pitt en ik was verbijsterd,” vertelde Anne aan de Franse media . “Eerst dacht ik dat het nep was, maar ik begreep niet echt wat er met me gebeurde.”
De relatie werd sterker door het maandenlange dagelijkse contact, waarbij de nep-Pitt gedichten, liefdesverklaringen en uiteindelijk een huwelijksaanzoek stuurde.
“Er zijn zo weinig mannen die je zo schrijven,” beschreef Anne. “Ik hield van de man met wie ik sprak. Hij wist hoe hij met vrouwen moest praten en het was altijd heel goed in elkaar gezet.”
De tactieken van de oplichters bleken zo overtuigend dat Anne uiteindelijk scheidde van haar man, een miljonair en ondernemer.
Nadat ze een band hadden opgebouwd, begonnen de oplichters geld af te troggelen met een bescheiden verzoek: € 9.000 voor vermeende douanekosten op luxe geschenken. Het escaleerde toen de imitator beweerde dat hij een kankerbehandeling nodig had, terwijl zijn rekeningen bevroren waren vanwege zijn scheiding van Angelina Jolie.
Een verzonnen doktersbericht over Pitts toestand was voor Anne aanleiding om € 800.000 over te maken naar een Turkse rekening.

“Het heeft me wat gekost, maar ik dacht dat ik misschien wel het leven van een man redde,” zei ze. Toen haar dochter de oplichterij herkende, weigerde Anne het te geloven: “Je zult het zien als hij hier in het echt is, dan zul je sorry zeggen.”
Haar illusies werden aan diggelen geslagen toen ze in de zomer van 2024 nieuwsberichten zag over de echte Brad Pitt met zijn partner Inés de Ramon.
Zelfs toen probeerden de oplichters de controle te behouden door nepnieuwsmeldingen te sturen waarin ze deze berichten ontkenden en beweerden dat Pitt in werkelijkheid een relatie had met een niet nader genoemde “heel speciale persoon”. In een laatste worp met de dobbelstenen wist iemand die zich voordeed als een FBI-agent nog eens € 5.000 te ontfutselen door haar te helpen ontsnappen aan de oplichting.
Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.
Dank je en proost?
Wij van Indignatie AI zijn je eeuwig dankbaar
De nasleep was verwoestend: drie zelfmoordpogingen leidden tot ziekenhuisopname vanwege depressie.
Anne sprak openhartig over haar ervaringen met de Franse omroep TF1, maar het interview werd later verwijderd nadat ze te maken kreeg met hevig cyberpesten.
Ze woont nu bij een vriendin, nadat ze haar meubels heeft verkocht. Ze heeft aangifte gedaan en een crowdfundingcampagne gestart voor juridische hulp.
Een tragische situatie – hoewel Anne zeker niet de enige is. Haar verhaal loopt parallel aan een enorme toename van AI-gestuurde fraude wereldwijd.
De Spaanse autoriteiten hebben onlangs vijf personen gearresteerd die 325.000 euro van twee vrouwen hebben gestolen door zich voor te doen als Brad Pitt.
Steve Grobman, Chief Technology Officer van McAfee, sprak vorig jaar over AI-fraude en legde uit waarom deze oplichtingspraktijken succesvol zijn : “Cybercriminelen kunnen generatieve AI gebruiken voor nep-stemmen en deepfakes op manieren die vroeger veel meer verfijning vereisten.”
Het zijn niet alleen mensen die in het vizier van de oplichters staan, maar ook bedrijven. Vorig jaar stalen oplichters in Hongkong $ 25,6 miljoen van een multinational met behulp van door AI gegenereerde imitators van leidinggevenden in videogesprekken.
Superintendent Baron Chan Shun-ching beschreef hoe “de werknemer werd gelokt in een videoconferentie waarvan werd gezegd dat er veel deelnemers waren. Het realistische uiterlijk van de individuen bracht de werknemer ertoe om 15 transacties uit te voeren naar vijf lokale bankrekeningen.”
Kunt u AI-fraude herkennen?
De meeste mensen denken dat ze kans maken om een AI-fraude te spotten, maar onderzoek wijst anders uit.
Studies tonen aan dat mensen moeite hebben om echte gezichten te onderscheiden van AI-creaties , en synthetische stemmen misleiden ongeveer een kwart van de luisteraars . Dat bewijs kwam van vorig jaar – AI-spraakbeeld, stem en videosynthese zijn sindsdien aanzienlijk geëvolueerd.
Synthesia, een AI-videoplatform dat realistische menselijke avatars genereert die meerdere talen spreken, nu gesteund door Nvidia, heeft zojuist zijn waardering verdubbeld tot $ 2,1 miljard. Video- en spraaksyntheseplatforms zoals Synthesia en Elevenlabs behoren tot de tools die fraudeurs gebruiken om deep fake-scams te lanceren.
Synthesia geeft dit zelf ook toe en heeft onlangs laten zien dat het zich inzet om misbruik te voorkomen door middel van een strenge openbare red team-test. Hieruit bleek dat de nalevingscontroles met succes pogingen blokkeren om niet-consensuele deepfakes te maken of avatars te gebruiken voor schadelijke content, zoals het promoten van zelfmoord en gokken.
Of zulke maatregelen nu wel of niet effectief zijn om misbruik te stoppen , daarover bestaat nog geen uitsluitsel.
Terwijl bedrijven en individuen worstelen met overtuigend realistische, door AI gegenereerde media, zullen de menselijke kosten – geïllustreerd door Annes verwoestende ervaring – waarschijnlijk stijgen.