Un nuovo studio ha scoperto che, anche quando le persone sono consapevoli di poter ascoltare un discorso falso e profondo, fanno fatica a identificare in modo affidabile le voci false.
Questo vale sia per chi parla inglese che per chi parla mandarino, sottolineando che le voci finte e profonde sono probabilmente efficaci in molte lingue.
I ricercatori dell'University College di Londra hanno chiesto a 500 persone di identificare un discorso falso profondo all'interno di più clip audio. Alcuni clip includevano una voce femminile autentica che leggeva frasi generiche in inglese o in mandarino, mentre altri erano falsi profondi prodotti da IA generative addestrate su voci femminili.
Il studio I partecipanti sono stati divisi in due gruppi, ognuno dei quali è stato sottoposto a una forma diversa dell'esperimento.
A un gruppo sono stati presentati 20 campioni vocali nella loro lingua madre e hanno dovuto discernere se le clip fossero vere o false. I partecipanti hanno identificato correttamente i falsi profondi e le voci autentiche circa il 73% delle volte, sia per i campioni vocali in inglese che in mandarino.
A un gruppo separato sono state fornite 20 coppie di clip audio selezionate a caso. Ogni coppia presentava la stessa frase pronunciata da un umano e da un falso profondo, e i partecipanti dovevano identificare il falso. L'accuratezza del rilevamento è aumentata a 85,59%.
Nel primo esperimento, l'individuazione di falsi profondi da parte dell'uomo nella vita reale sarà probabilmente più scarsa di quanto i risultati suggeriscano, poiché le persone non sarebbero avvertite del fatto che potrebbero ascoltare un discorso generato dall'intelligenza artificiale.
Al contrario, nel secondo esperimento gli ascoltatori hanno una scelta binaria, che li avvantaggia.
È interessante notare che la differenza di risultati tra l'inglese e il mandarino è relativamente bassa.
Aumentano le truffe di discorsi falsi nella vita reale
"Questa configurazione non è completamente rappresentativa degli scenari reali", spiega Mai. "Agli ascoltatori non verrebbe detto in anticipo se ciò che stanno ascoltando è reale, e fattori come il sesso e l'età dell'oratore potrebbero influenzare le prestazioni di rilevamento".
Tuttavia, ci sono ulteriori limitazioni, in quanto lo studio non ha sfidato gli ascoltatori a determinare i falsi profondi progettati per assomigliare a qualcuno che conoscono, come un figlio, una madre, ecc. Se i truffatori mirassero a qualcuno con un falso profondo, quasi certamente clonerebbero la voce di qualcuno. Questo è relativamente facile se qualcuno ha caricato audio o video di se stesso online, ad esempio per un video sui social media, un podcast, una trasmissione radiofonica o televisiva.
Questo sta già accadendo, con una Sondaggio McAfee che mostra che circa 1 adulto su 4 è a conoscenza di frodi di voce falsa e profonda.
Anche le frodi legate all'intelligenza artificiale sono in aumento in Cinae un analista ha previsto che Le frodi supportate dall'intelligenza artificiale potrebbero costare caro alle persone e alle economie. Esistono numerosi aneddoti spaventosi di persone che sono già state prese di mira con chiamate false e profonde, spesso sotto forma di familiari in preda al panico che chiedono denaro per uscire da una situazione difficile.
Questo studio ha rilevato che le voci finte si stanno "muovendo attraverso la valle del mistero", imitando il suono naturale delle voci umane ma mancando delle sottili sfumature che provocano sospetto in alcuni ascoltatori. Naturalmente, le voci finte profonde dell'intelligenza artificiale sono in continuo miglioramento.
Nel complesso, lo studio dimostra che la tecnologia attuale è già altamente competente e i tentativi di migliorare le capacità degli individui di rilevare le voci false nello studio sono stati ampiamente infruttuosi.
Gli autori sottolineano la necessità di sviluppare rilevatori di voce AI competenti e di educare le popolazioni su quanto siano già sofisticate le voci false profonde.
Una futura ricerca sui falsi profondi che riproducano le voci di persone conosciute dai partecipanti allo studio sarebbe utile.
Esistono modi pratici per identificare le truffe di tipo deep fake speech, come stabilire parole in codice tra i membri della famiglia o chiedere a chi chiama di descrivere un'informazione personale nota a tutti.