AI-deepfakes hebben een financieel medewerker van een multinational misleid om maar liefst 25,6 miljoen dollar aan fraudeurs over te maken.
DeepFake-zwendel Deze oplichters gebruikten door AI gegenereerde namaakproducten om het uiterlijk en de stem van de senior collega’s van de werknemer, waaronder de Chief Financial Officer (CFO), na te bootsen tijdens een videoconferentiegesprek.
- Door een grootschalige nepfraude werd een multinational ertoe verleid zo’n 25 miljoen dollar over te maken
- Oplichters gebruikten door AI gegenereerde vervalsingen om een CFO en andere collega’s tijdens een videogesprek na te bootsen
- De deep fakes waren geavanceerd genoeg om een werknemer te misleiden om de overboekingen uit te voeren
Dit werd voor het eerst gerapporteerd door CNN en doorgegeven door senior hoofdinspecteur Baron Chan Shun-ching van de cyberveiligheidsafdeling van de politie van Hong Kong. Dit is waarschijnlijk de AI-deepfake-zwendel met de hoogste inzet die we tot nu toe hebben gezien.
Toen de medewerker van een internationale onderneming een e-mail kreeg van zijn chief financial officer, die in het Verenigd Koninkrijk gevestigd is, dacht hij eerst nog wel dat het om een phishingaanval zou kunnen gaan. Maar hij werd daarna in een videoconferentie geroepen met daarin diezelfde cfo en ook een aantal collega’s die hij kende.
Eerdere meetings gebruikt
Het klonk allemaal erg belangrijk en dringend. De medewerker deed wat hem werd gevraagd: hij voerde 15 stortingen uit voor in totaal 200 miljoen Hongkong dollar, of 24 miljoen euro. Pas enkele dagen later begon hij nattigheid te voelen, en contacteerde hij het hoofdkantoor.
De politie van Hongkong maakte het verhaal zondag bekend, zonder de namen van het bedrijf of de betrokken personen te noemen. Het verslag staat op de website van RTHK, een overheidszender in Hongkong.
Volgens de politie werden de deepfake-collega’s gemaakt op basis van eerdere, echte videovergaderingen bij het bedrijf. Ook de audio werd vervalst.
“We willen het publiek waarschuwen voor deze nieuwe oplichtingstechnieken”, zei politiehoofd Baron Chan aan RTHK.
De zwendel begon met een misleidend bericht, naar verluidt afkomstig van de Britse CFO van het bedrijf, waarin de werknemer werd uitgenodigd voor een videogesprek om een vertrouwelijke financiële transactie te bespreken.
Ondanks enkele vermoedens en het geheimzinnige karakter van het verzoek, wat aanleiding gaf tot alarmsignalen, namen de overtuigende deep fakes uiteindelijk de twijfels van de werknemer tijdens het videogesprek weg.
Na de frauduleuze transacties nam de werknemer contact op met het hoofdkantoor van het bedrijf, maar besefte de fout.
AI-deepfakes zijn gebruikt voor een reeks oplichtingspraktijken, waaronder een aantal die zich richtten op politieke en publieke figuren zoals Elon Musk en Mr Beast en de Britse premier Rishi Sunak .
Uit onderzoek blijkt dat mensen echte gezichten niet meer betrouwbaar kunnen onderscheiden van geavanceerde vervalsingen, en dat ongeveer een kwart van de mensen wordt misleid door door AI gegenereerde stemmen .
Social media-beïnvloeder Eddie Cumberbatch kreeg ook te maken met AI-fraude toen zijn grootouders een frauduleus telefoontje kregen waarin hij zijn stem nabootste . De diepe nepstemmen beweerden dat hij een auto-ongeluk had gehad en dringend geld nodig had, wat een veel voorkomend thema is bij dit soort oplichting.
Chan legde dit recente fraude-incident uit en merkte op: “De werknemer werd naar een videoconferentie gelokt waaraan naar verluidt veel deelnemers deelnamen. Het realistische uiterlijk van de personen aan de telefoon bracht de medewerker ertoe vijftien transacties uit te voeren naar vijf lokale bankrekeningen, voor een totaalbedrag van HK$200 miljoen.”
Chan benadrukte verder het belang van het publieke bewustzijn over door AI ondersteunde misleidende tactieken en zei: “We willen het publiek waarschuwen voor deze nieuwe misleidingstactieken. Fraudeurs maken nu gebruik van AI-technologie in online vergaderingen, waardoor het voor individuen van cruciaal belang is om zelfs in grote groepen waakzaam te blijven.”
Vorig jaar waarschuwde Steve Grobman, Chief Technology Officer van McAfee, voor diepe nepfraude : “Een van de dingen die het belangrijkste is om te erkennen met de vooruitgang op het gebied van AI dit jaar is dat het er grotendeels om gaat deze technologieën binnen het bereik van veel meer mensen te brengen, waaronder echt waardoor de schaalgrootte binnen de cyberactorgemeenschap mogelijk wordt gemaakt.”
“Cybercriminelen kunnen generatieve AI gebruiken voor nepstemmen en deepfakes op manieren die vroeger veel meer verfijning vereisten.”
De politie van Hong Kong dringt er bij werknemers op aan om verdachte uitnodigingen voor vergaderingen te verifiëren via standaard communicatiekanalen van het bedrijf en om deel te nemen aan vergaderingen om de authenticiteit van deelnemers te bevestigen.
Mensen moeten ook codewoorden opstellen met hun vrienden en familie om zich te beschermen tegen diepgaande nepfraude.
Als iets argwaan wekt, vraag dan om het codewoord of stel een persoonlijke vraag over uzelf, hen, uw familie of iets dergelijks.