In een interview met Fox NewsHaywood Talcove, CEO van de overheidsdivisie van LexisNexis Risk Solutions, zegt dat AI-gerelateerde fraude belastingbetalers het komende jaar honderden miljarden tot $1 biljoen kan kosten.
Talcove zei dat LexisNexis Risk Solutions situaties tegenkwam waarin AI-fraude werd gebruikt om overheidsinstellingen op te lichten. Fraudeurs zouden bijvoorbeeld deep fake-technieken gebruiken om geld af te troggelen van gebruikers van de sociale zekerheid, Medicare en Medicaid.
"Omdat we een van de rijkste landen ter wereld zijn, zijn we een enorm doelwit," vertelde Talcove aan Fox News. "De hoeveelheid geld die we de komende 12 maanden gaan verliezen, als we niets doen, laat de COVID pandemie kinderspel lijken."
Vrijwel elk individu met een online aanwezigheid is vatbaar voor AI-ondersteunde oplichting. Er zijn gevallen bekend van fraudeurs die nepstemmen, -afbeeldingen en zelfs -video's gebruiken om zich voor te doen als anderen. Analisten hebben vastgesteld dat dit een van de belangrijkste problemen van de technologie is. meest directe risico's.
De De FBI waarschuwde onlangs over AI sextortion en wraakporno, waarbij fraudeurs valse expliciete beelden genereren om mensen af te persen.
Deze misleidingstechnieken kunnen worden uitgebreid naar bijna alles, zoals mensen in verband brengen met extremistisch materiaal of criminele activiteiten.
"AI-technologie is al zo geavanceerd dat als er informatie van jou beschikbaar is op het web of sociale media, dit gebruikt kan worden om een generatief AI-model te maken en de meeste verouderde authenticatiesystemen van de overheid te omzeilen," waarschuwde Talcove.
Talcove benadrukte de noodzaak van actie: "Ik vermoed dat we in de komende 12 maanden, als de regering hier niet snel op reageert, meer dan $1 biljoen zullen verliezen aan deze criminele groepen, waarvan sommige zich buiten het land bevinden."
In antwoord op de vraag wat er moet worden gedaan om AI-fraude te voorkomen, zei Talcove onheilspellend: "Het is al te laat" en wees erop dat AI-ondersteunde fraude al wijdverspreid is en onopgemerkt blijft.
Talcove sloot af met een alarmerende waarschuwing: "Het is niet langer de vraag of, maar wanneer en hoe ernstig deze AI-gestuurde bedreigingen hun instanties zullen beïnvloeden. We moeten de grimmige realiteit erkennen dat AI-fraude geen bedreiging is die ver weg is, maar een die aan onze deur klopt."
Zijn deze claims onderbouwd?
AI-ondersteunde fraude draait voornamelijk om diepe vervalsingen. Diepe vervalsingen variëren van onschuldig - zoals Elon Musk als baby - tot schadelijk - zoals deze valse afbeelding van een explosie in het Pentagonwaardoor de Amerikaanse markten kort onderdompelden toen het eenmaal circuleerde op sociale media.
Er zijn talloze verhalen bekend over fraudeurs die kwetsbare mensen oplichten met nepzwendel, waaronder een golf van zogenaamde "grootouderzwendel." Een Amerikaanse moeder was verwikkeld in een nep ontvoeringscomplotwaarbij fraudeurs $1m losgeld eisten.
China lijdt ook onder AI-ondersteunde oplichtingwaaronder een incident waarbij een man in gesprek ging met een AI-gegenereerde videoavatar van zijn vriend.
AI wordt steeds beter in het imiteren van mensen - wat een van de basiskwaliteiten van de technologie is. De Turingtestontwikkeld door cryptoanalist en wiskundige Alan Turing in de jaren 1950, beoordeelt het vermogen van een machine om mensen te imiteren. Realisme is waar AI-technologie naar streeft.
Het ongelooflijke vermogen van AI om menselijk gedrag te kopiëren, te vervalsen en te imiteren is gemakkelijk te gebruiken als wapen door fraudeurs en zal onvermijdelijk leiden tot nieuwe cybercrimetechnieken.
AI zal ook worden gebruikt om ze aan te pakken in wat waarschijnlijk een wapenwedloop wordt tussen cybercriminelen, wetshandhavers en beveiligingsbedrijven.