Une nouvelle étude révèle que les fausses voix profondes générées par l'IA trompent plus d'un quart des participants

3 août 2023

IA profonde faux discours

Une nouvelle étude a montré que même lorsque les gens sont conscients qu'ils pourraient écouter un faux discours profond, ils ont encore du mal à identifier de manière fiable les fausses voix.

Cela s'applique à la fois aux locuteurs de l'anglais et du mandarin, ce qui souligne que les fausses voix profondes sont probablement efficaces dans de nombreuses langues. 

Des chercheurs de l'University College London ont demandé à 500 personnes d'identifier des fausses voix profondes dans plusieurs clips audio. Certains clips comprenaient une voix féminine authentique lisant des phrases génériques en anglais ou en mandarin, tandis que d'autres étaient des faux profonds produits par des IA génératives entraînées sur des voix féminines.

Les étude Les participants ont été répartis en deux groupes, chacun étant soumis à une forme différente de l'expérience. 

Un groupe s'est vu présenter 20 échantillons de voix dans sa langue maternelle et a dû déterminer si les clips étaient vrais ou faux. Les participants ont correctement identifié les fausses voix profondes et les voix authentiques dans environ 73% des cas pour les échantillons de voix en anglais et en mandarin. 

Un autre groupe a reçu 20 paires de clips audio choisis au hasard. Chaque paire présentait la même phrase prononcée par un humain et le faux profond, et les participants devaient identifier le faux. La précision de détection a ainsi été portée à 85,59%.

Dans le cadre de la première expérience, la détection humaine en situation réelle des "deep fakes" sera probablement moins bonne que ne le suggèrent les résultats, car les gens ne seraient pas avertis qu'ils risquent d'entendre un discours généré par l'IA. 

Inversement, les auditeurs ont un choix binaire dans la seconde expérience, ce qui leur confère un avantage.

Il est intéressant de noter qu'il y a relativement peu de différence entre les résultats de l'anglais et ceux du mandarin. 

Les escroqueries aux faux discours profonds se multiplient dans la vie réelle

"Cette configuration n'est pas tout à fait représentative des scénarios de la vie réelle", précise M. Mai. "Les auditeurs ne sauraient pas à l'avance si ce qu'ils écoutent est réel, et des facteurs tels que le sexe et l'âge de l'orateur pourraient affecter les performances de détection."

Cependant, il existe d'autres limites, car l'étude n'a pas demandé aux auditeurs de déterminer les fausses voix profondes conçues pour ressembler à quelqu'un qu'ils connaissent, comme un fils, une mère, etc. Si les escrocs ciblaient quelqu'un avec un faux profond, ils cloneraient presque certainement la voix de cette personne. Cela est relativement facile si une personne a téléchargé des fichiers audio ou vidéo d'elle-même en ligne, par exemple pour une vidéo sur les médias sociaux, un podcast, une émission de radio ou de télévision. 

C'est déjà le cas, avec une Enquête McAfee qui montre qu'environ 1 adulte sur 4 est conscient de l'existence d'une fraude par fausse voix profonde.

La fraude liée à l'IA est également en hausse en Chineet un analyste a prédit que La fraude assistée par l'IA pourrait coûter cher aux personnes et aux économies. De nombreuses anecdotes effrayantes ont été rapportées par des personnes qui ont déjà été la cible d'appels frauduleux, souvent sous la forme d'un membre de la famille paniqué demandant de l'argent pour le sortir d'une situation difficile. 

Cette étude a révélé que les fausses voix "évoluent dans la vallée de l'étrange", imitant le son naturel des voix humaines mais manquant des nuances subtiles qui provoquent la méfiance de certains auditeurs. Bien entendu, les fausses voix profondes de l'IA s'améliorent sans cesse. 

Dans l'ensemble, l'étude prouve que la technologie actuelle est déjà très compétente et que les tentatives visant à améliorer les capacités des individus à détecter les fausses voix dans l'étude ont été largement infructueuses. 

Les auteurs soulignent la nécessité de mettre au point des détecteurs de voix d'IA compétents et d'informer les populations sur le degré de sophistication des fausses voix profondes.

De futures recherches sur les imitations profondes reproduisant les voix de personnes que les participants à l'étude connaissent seraient très utiles.

Il existe des moyens pratiques d'identifier les escroqueries par faux discours profond, notamment en établissant des codes entre les membres de la famille ou en demandant aux appelants de décrire un élément d'information personnelle connu de tous.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation