Un recente rapporto di McAfee ha rivelato l'allarmante aumento delle frodi che utilizzano la clonazione vocale supportata dall'intelligenza artificiale.
Le cosiddette "truffe dell'impostore" non sono una novità. Il La Commissione federale del commercio rivela che tali truffe di impostori hanno causato una perdita massiccia di $2,6 miliardi negli Stati Uniti solo nel 2022, con un aumento di 30% rispetto all'anno precedente.
Queste truffe, note anche come "emergenze familiari", prevedono che il truffatore manipoli la vittima facendole credere che una persona cara abbia urgentemente bisogno di denaro.
In un recente indagine McAfee1 intervistato su 4 ha riferito di essersi imbattuto in una truffa con voce AI, mentre 1 su 10 ha confessato di essere stato preso di mira personalmente. Lo studio di McAfee evidenzia che i truffatori possono clonare le voci da frammenti audio estratti dai social media.
Ad esempio, l'influencer sui social media Eddie Cumberbatch, che ha oltre 100.000 follower, ha subito una truffa da parte dell'intelligenza artificiale quando i suoi nonni hanno ricevuto una chiamata fraudolenta che impersona la sua voce. Sostenevano che aveva avuto un incidente d'auto devastante e che aveva urgente bisogno di denaro.
In un altro caso, una coppia canadese ha perso $21.000 dollari canadesi ($15.449 statunitensi) a causa di una truffa vocale AI simile.
Un clone AI della voce di Benjamin Perkin ha convinto i suoi genitori che era stato imprigionato per aver accidentalmente ucciso un diplomatico in un incidente d'auto e che aveva bisogno di soldi per le spese legali. I genitori lo hanno accontentato e Perkins divulgato al Washington PostNon c'è assicurazione. Non c'è modo di riaverlo indietro. Non c'è più niente".
In risposta all'aumento delle frodi legate all'IA, Steve Grobman, Chief Technology Officer di McAfee, ha avvertito: "Una delle cose più importanti da riconoscere con i progressi dell'IA di quest'anno è che si tratta in gran parte di portare queste tecnologie alla portata di molte più persone, compreso l'aumento della scala all'interno della comunità dei cybercriminali. I criminali informatici sono in grado di utilizzare l'IA generativa per le voci false e i deepfakes in modi che prima richiedevano molta più sofisticazione".
Cosa dice il rapporto McAfee sulle frodi AI
Secondo dati recenti di McAfee, le truffe vocali sfruttano tipicamente il legame emotivo delle vittime con i loro cari.
1 persona su 10 tra quelle intervistate è stata presa di mira personalmente e 15% hanno riferito che qualcuno che conoscono è stato vittima.
Il problema sembra essere più grave in India, dove 47% degli intervistati hanno riferito di aver subito questo tipo di truffa, con gli Stati Uniti al secondo posto con 14% e il Regno Unito con 8%. 36% di tutti gli adulti intervistati hanno dichiarato di non aver mai sentito parlare di questa truffa.
Quasi la metà (45%) delle persone è propensa a rispondere a una richiesta di denaro se proviene da un amico o da una persona cara, e alcuni scenari inventati appaiono più convincenti.
In cima alla lista c'è un incidente d'auto o un guasto, con 48% degli intervistati che hanno indicato che avrebbero reagito a una situazione del genere. Segue a ruota una rapina, con 47%.
Se il chiamante dichiara di aver perso il telefono o il portafoglio, è probabile che il 43% risponda, mentre il 41% aiuterebbe chi dice di essere in viaggio all'estero e di aver bisogno di aiuto.
Circa 40% degli intervistati hanno dichiarato che avrebbero risposto al partner o al coniuge, mentre la madre si è attestata a 24%. Per quanto riguarda i genitori di età pari o superiore a 50 anni, 41% sono più propensi a rispondere se la chiamata proviene presumibilmente da un figlio.
È interessante notare che la maggior parte dei casi noti riguarda genitori o nonni che riferiscono che un truffatore ha clonato la voce del loro figlio o nipote per mettere in atto l'inganno.
Essere consapevoli delle truffe dell'intelligenza artificiale
McAfee fornisce diverse raccomandazioni per evitare le truffe vocali dell'intelligenza artificiale:
- Stabilite un'unica "parola in codice" con i vostri figli, familiari o amici intimi. Se ricevete una chiamata di emergenza sospetta, chiedete la parola d'ordine.
- Mettete sempre in dubbio la fonte. Sia che si tratti di una chiamata, di un SMS o di un'e-mail proveniente da un mittente sconosciuto o anche da un numero che riconoscete, prendetevi un momento per riflettere. Fate domande a cui un truffatore non sarebbe in grado di rispondere, ad esempio: "Può confermare il nome di mio figlio?" o "Quando è il compleanno di suo padre?". Questa tattica potrebbe spiazzare il truffatore e creare delle pause innaturali nella conversazione, suscitando sospetti.
- Mantenere il controllo emotivo. I criminali informatici sfruttano i legami emotivi con la persona che impersonano per provocare una reazione affrettata. Fate un passo indietro e valutate la situazione prima di reagire.
- Diffidate delle chiamate inaspettate da parte di numeri sconosciuti.
Le frodi legate all'intelligenza artificiale stanno diventando onnipresenti e non c'è un modo preciso per affrontarle. In una recente intervista a Fox News, un analista di sicurezza informatica ha dichiarato che ciò potrebbe costare Americani $1tn un anno se lasciata deselezionata.
L'educazione al problema, compreso l'uso di parole chiave e altre tattiche per spaventare i truffatori, è forse il modo più efficace per affrontare le frodi vocali per il momento.