AI deep fakes hebben een financiële medewerker van een multinational misleid om maar liefst $25,6 miljoen over te maken aan fraudeurs.
Deze oplichters gebruikten AI-gegenereerde vervalsingen om het uiterlijk en de stem van de senior collega's van de werknemer na te bootsen, waaronder de Chief Financial Officer (CFO), tijdens een videoconferentiegesprek.
Voor het eerst gemeld door CNN en doorgegeven door senior superintendent Baron Chan Shun-ching van de cyberbeveiligingsdivisie van de politie van Hongkong, is dit waarschijnlijk de AI deep fake scam met de hoogste inzet die we tot nu toe hebben gezien.
De zwendel begon met een misleidend bericht, zogenaamd van de CFO van het bedrijf in het Verenigd Koninkrijk, waarin de werknemer werd uitgenodigd voor een videogesprek om een vertrouwelijke financiële transactie te bespreken.
Ondanks enkele vermoedens en de geheimzinnige aard van het verzoek dat rode vlaggen deed rijzen, namen de overtuigende diepe vervalsingen uiteindelijk de twijfels van de werknemer weg tijdens het videogesprek.
Na de frauduleuze transacties nam de werknemer contact op met het hoofdkantoor van het bedrijf, om zich vervolgens te realiseren wat de fout was.
AI-dieptemakers zijn gebruikt voor een reeks oplichtingspraktijken, waaronder verschillende gericht op politieke en publieke figuren zoals Elon Musk en Meneer Beest en Minister-president van het Verenigd Koninkrijk Rishi Sunak.
Studies ontdekken dat mensen echte gezichten niet meer betrouwbaar kunnen onderscheiden van geavanceerde vervalsingen, en sommige 1/4 van de mensen wordt misleid door AI-gegenereerde stemmen.
Social media influencer Eddie Cumberbatch maakte ook een AI-fraude mee toen zijn grootouders een frauduleuze oproep die zich voordoet als zijn stem. De diepe nepstemmen beweerden dat hij een auto-ongeluk had gehad en dringend geld nodig had, wat een veel voorkomend thema is bij dit soort oplichting.
Chan legde dit recente fraude-incident uit: "De werknemer werd in een videoconferentie gelokt die naar verluidt veel deelnemers had. Het realistische uiterlijk van de personen in het gesprek leidde ertoe dat de werknemer 15 transacties uitvoerde naar vijf lokale bankrekeningen, voor een totaalbedrag van HK$200 miljoen."
Chan benadrukte verder het belang van publieke bewustwording over AI-ondersteunde misleidingstactieken: "We willen het publiek waarschuwen voor deze nieuwe misleidingstactieken. Fraudeurs maken nu gebruik van AI-technologie in online vergaderingen, waardoor het cruciaal is voor individuen om waakzaam te blijven, zelfs in grote groepsomgevingen."
Vorig jaar zei Steve Grobman, Chief Technology Officer van McAfee, gewaarschuwd voor diepe nepfraude"Een van de belangrijkste dingen om te erkennen met de vooruitgang in AI dit jaar is dat het grotendeels gaat om het binnen bereik brengen van deze technologieën van veel meer mensen, inclusief het echt mogelijk maken van de schaal binnen de cyberactorgemeenschap."
"Cybercriminelen kunnen generatieve AI gebruiken voor nepstemmen en deepfakes op manieren waarvoor vroeger veel meer verfijning nodig was."
De politie van Hongkong dringt er bij werknemers op aan om verdachte uitnodigingen voor bijeenkomsten te verifiëren via de standaard communicatiekanalen van het bedrijf en om deel te nemen aan bijeenkomsten om de authenticiteit van de deelnemers te bevestigen.
Mensen moeten ook codewoorden afspreken met hun vrienden en familie om zich te beschermen tegen nepfraude.
Als iets argwaan wekt, vraag dan naar het codewoord of stel een persoonlijke vraag over jezelf, hen, je familie of iets dergelijks.