Un récent rapport de McAfee a révélé l'augmentation alarmante des fraudes utilisant le clonage vocal assisté par l'IA.
Les "escroqueries à l'imposteur" ne sont pas un phénomène nouveau. Les La Commission fédérale du commerce révèle que ces escroqueries à l'imposteur ont causé une perte massive de $2,6 milliards aux États-Unis pour la seule année 2022, soit une augmentation de 30% par rapport à l'année précédente.
Ces escroqueries, également connues sous le nom d'escroqueries "d'urgence familiale", consistent pour l'escroc à manipuler la victime en lui faisant croire qu'un proche a un besoin urgent d'argent.
Dans un enquête récente de McAfeeSelon l'étude McAfee, 1 personne interrogée sur 4 a déclaré avoir été victime d'une escroquerie à la voix artificielle, et 1 personne sur 10 a avoué avoir été personnellement ciblée. L'étude de McAfee souligne que les fraudeurs peuvent cloner des voix à partir de bribes audio extraites de clips de médias sociaux.
Par exemple, l'influenceur des médias sociaux Eddie Cumberbatch, qui compte plus de 100 000 adeptes, a été victime d'une escroquerie à l'IA lorsque ses grands-parents ont reçu une lettre d'information de la part de l'entreprise. appel frauduleux se faisant passer pour sa voix. Ils ont prétendu qu'il avait été victime d'un grave accident de voiture et qu'il avait un besoin urgent d'argent.
Lors d'un autre incident, un couple canadien a perdu $21 000 dollars canadiens ($15 449 dollars américains) à la suite d'une escroquerie similaire à l'IA vocale.
Un clone IA de la voix de Benjamin Perkin a convaincu ses parents qu'il était emprisonné pour avoir accidentellement tué un diplomate dans un accident de voiture et qu'il avait besoin d'argent pour payer ses frais de justice. Ses parents ont accepté, et Perkins divulguée au Washington PostIl n'y a pas d'assurance. On ne peut pas le récupérer. Il n'y en a plus."
En réponse à l'augmentation de la fraude par l'IA, Steve Grobman, directeur de la technologie chez McAfee, a lancé une mise en garde : "L'une des choses les plus importantes à reconnaître avec les progrès de l'IA cette année est qu'il s'agit en grande partie de mettre ces technologies à la portée d'un plus grand nombre de personnes, y compris en permettant vraiment l'échelle au sein de la communauté des cyberacteurs. Les cybercriminels sont en mesure d'utiliser l'IA générative pour créer de fausses voix et de fausses images profondes d'une manière qui nécessitait auparavant un niveau de sophistication beaucoup plus élevé".
Ce que dit le rapport McAfee sur la fraude à l'IA
Selon des données récentes de McAfee, les escroqueries vocales exploitent généralement les liens affectifs des victimes avec leurs proches.
1 personne interrogée sur 10 a été personnellement ciblée, et 15% ont déclaré que quelqu'un qu'ils connaissaient avait été victime d'un tel acte.
C'est en Inde que le problème semble le plus grave, puisque 47% des personnes interrogées ont déclaré avoir été victimes de ce type d'escroquerie. Les États-Unis arrivent en deuxième position avec 14% et le Royaume-Uni avec 8%. 36% de tous les adultes interrogés ont déclaré n'avoir jamais entendu parler de cette escroquerie.
Près de la moitié (45%) des personnes sont susceptibles de répondre à une demande d'argent si elle émane d'un ami ou d'un proche, certains scénarios inventés semblant plus convaincants.
En tête de liste figure un accident de voiture ou une panne, 48% des personnes interrogées indiquant qu'elles réagiraient probablement à une telle situation. Cette situation est suivie de près par un vol signalé, avec 47%.
Si l'appelant déclare avoir perdu son téléphone ou son portefeuille, 43% des personnes sont susceptibles de répondre, tandis que 41% aiderait une personne qui déclare être en voyage à l'étranger et avoir besoin d'aide.
Environ 40% des personnes interrogées ont déclaré qu'elles répondraient probablement à leur partenaire ou à leur conjoint, tandis que leur mère arrive en tête avec 24%. Pour les parents âgés de 50 ans ou plus, 41% sont les plus susceptibles de répondre si l'appel est censé provenir de leur enfant.
Il est intéressant de noter que la plupart des cas connus concernent des parents ou des grands-parents qui signalent qu'un escroc a cloné la voix de leur enfant ou de leur petit-enfant pour réaliser la supercherie.
Soyez attentifs aux escroqueries liées à l'IA
McAfee propose plusieurs recommandations pour éviter les escroqueries liées à l'IA vocale :
- Établissez un "mot de passe" unique avec vos enfants, les membres de votre famille ou vos amis proches. Si vous recevez un appel d'urgence suspect, demandez le mot de passe.
- Interrogez toujours la source. Qu'il s'agisse d'un appel, d'un texte ou d'un courriel provenant d'un expéditeur inconnu ou même d'un numéro que vous reconnaissez, prenez le temps de réfléchir. Posez des questions auxquelles un escroc ne pourrait pas répondre, comme "Pouvez-vous confirmer le nom de mon fils ?" ou "Quelle est la date d'anniversaire de votre père ?". Cette tactique peut déstabiliser l'escroc et provoquer des pauses non naturelles dans la conversation, ce qui éveille les soupçons.
- Gardez le contrôle de vos émotions. Les cybercriminels exploitent les liens émotionnels que vous entretenez avec la personne dont ils usurpent l'identité pour provoquer une réaction hâtive. Prenez du recul et évaluez la situation avant de réagir.
- Méfiez-vous des appels inattendus provenant de numéros inconnus.
La fraude liée à l'IA devient omniprésente, et il n'existe pas de solution miracle pour y remédier. Dans une récente interview accordée à Fox News, un analyste en cybersécurité a déclaré que cela pourrait coûter 1,5 milliard d'euros. Americans $1tn un an si la case n'est pas cochée.
L'éducation autour de la question, y compris l'utilisation de mots codés et d'autres tactiques pour effrayer les fraudeurs, est peut-être le moyen le plus efficace de lutter contre la fraude vocale pour le moment.