Un nuevo informe de McAfee indica el auge del fraude de voz con IA

3 de julio de 2023

McAfee

Un reciente informe de McAfee reveló el alarmante aumento del fraude que utiliza la clonación de voz con ayuda de la IA.

Las llamadas "estafas de impostores" no son nada nuevo. En La Comisión Federal de Comercio revela que tales estafas de impostores causaron una pérdida masiva de $2.600 millones en EE.UU. sólo en 2022, lo que representa un aumento de 30% con respecto al año anterior.

Estas estafas, también conocidas como estafas de "emergencia familiar", consisten en que el estafador manipula a la víctima haciéndole creer que un ser querido necesita dinero urgentemente.

En un encuesta reciente de McAfeeSegún el estudio de McAfee, 1 de cada 4 encuestados declaró haberse encontrado con una estafa de voz IA, mientras que 1 de cada 10 confesó haber sido objeto de un ataque personal. El estudio de McAfee destaca que los estafadores pueden clonar voces a partir de fragmentos de audio extraídos de clips de redes sociales.

Por ejemplo, Eddie Cumberbatch, influencer en redes sociales con más de 100.000 seguidores, sufrió una estafa de IA cuando sus abuelos recibieron un llamada fraudulenta suplantando su voz. Afirmaban que había sufrido un devastador accidente de coche y que necesitaba dinero urgentemente.

En otro incidente, una pareja canadiense perdió $21.000 en dólares canadienses ($15.449 dólares estadounidenses) por una estafa de voz AI similar.

Un clon de IA de la voz de Benjamin Perkin convenció a sus padres de que había sido encarcelado por matar accidentalmente a un diplomático en un accidente de coche y necesitaba el dinero para los gastos legales. Sus padres accedieron y Perkins revelada a The Washington PostNo hay seguro. No se puede recuperar. Ha desaparecido".

En respuesta al aumento del fraude con IA, Steve Grobman, Director de Tecnología de McAfee, advirtió: "Una de las cosas más importantes que hay que reconocer con los avances en IA de este año es que se trata en gran medida de poner estas tecnologías al alcance de mucha más gente, lo que incluye realmente habilitar la escala dentro de la comunidad de ciberactores. Los ciberdelincuentes son capaces de utilizar la IA generativa para voces falsas y deepfakes de formas que antes requerían mucha más sofisticación."

Qué dice el informe McAfee sobre el fraude de la IA

Según datos recientes de McAfee, las estafas de voz suelen aprovecharse de las conexiones emocionales de las víctimas con sus seres queridos. 

1 de cada 10 personas encuestadas ha sido víctima personalmente, y 15% declararon que alguien que conocían había sido víctima.

El problema parece ser más grave en la India, donde 47% de los encuestados declararon haber sufrido este tipo de estafa, seguido de Estados Unidos, con 14%, y el Reino Unido, con 8%. 36% de todos los adultos encuestados dijeron que nunca habían oído hablar de la estafa.

Casi la mitad (45%) de las personas son propensas a responder a una petición de dinero si procede de un amigo o un ser querido, y ciertos escenarios inventados parecen más convincentes. 

A la cabeza de la lista se encuentra un accidente de coche o una avería, con 48% de los encuestados indicando que probablemente reaccionarían ante tal situación. Le sigue de cerca una denuncia de robo, con 47%. 

Si la persona que llama afirma haber perdido el teléfono o la cartera, es probable que respondan 43% de personas, mientras que el 41% asistiría a alguien que dijera estar de viaje en el extranjero y necesitara ayuda.

Alrededor de 40% de los encuestados dijeron que probablemente responderían a su pareja o cónyuge, mientras que su madre se situó en 24%. En el caso de los padres de 50 años o más, 41% son los más propensos a responder si la llamada procede supuestamente de su hijo. 

Curiosamente, la mayoría de los casos conocidos implican a padres o abuelos que denuncian que un estafador clonó la voz de su hijo o nieto para llevar a cabo el engaño. 

Atención a las estafas de IA

McAfee hace varias recomendaciones para evitar las estafas de voz con IA:

  • Establezca una "palabra clave" única con sus hijos, familiares o amigos íntimos. Si recibe una llamada de emergencia sospechosa, pregunte por la palabra clave. 
  • Cuestiona siempre la fuente. Tanto si se trata de una llamada, un mensaje de texto o un correo electrónico de un remitente desconocido como de un número que reconoce, tómese un momento para pensar. Haga preguntas que un estafador no podría responder, como "¿Puede confirmar el nombre de mi hijo?" o "¿Cuándo es el cumpleaños de su padre?". Esta táctica podría inquietar a un estafador y presentar pausas poco naturales en la conversación, provocando sospechas.
  • Mantenga el control emocional. Los ciberdelincuentes se aprovechan de tus vínculos emocionales con la persona a la que suplantan para provocar una reacción precipitada. Da un paso atrás y evalúa la situación antes de responder. 
  • Desconfíe de las llamadas inesperadas de números desconocidos.

El fraude relacionado con la IA se está convirtiendo en omnipresente, y no hay una forma rápida y sencilla de hacerle frente. En una reciente entrevista en Fox News, un analista de ciberseguridad afirmó que esto podría costar Americanos $1tn al año si se deja sin marcar.

La educación en torno a este problema, incluido el uso de palabras clave y otras tácticas para asustar a los defraudadores, es quizá la forma más eficaz de hacer frente al fraude de voz por el momento.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales