Voces falsas generadas por inteligencia artificial engañan a más de 1/4 de los participantes en un nuevo estudio

3 de agosto de 2023

AI deep fake speech

Un nuevo estudio ha descubierto que incluso cuando las personas son conscientes de que podrían estar escuchando un discurso falso, siguen teniendo dificultades para identificar con fiabilidad las voces falsas.

Esto se aplica tanto a hablantes de inglés como de mandarín, lo que subraya que las voces falsas graves son probablemente eficaces en muchos idiomas. 

Investigadores del University College de Londres pidieron a 500 personas que identificaran voces falsas profundas en varios clips de audio. Algunos de los clips incluían una voz femenina auténtica que leía frases genéricas en inglés o mandarín, mientras que otros eran falsificaciones profundas producidas por IA generativas entrenadas en voces femeninas.

En estudiar Los participantes se dividieron en dos grupos, cada uno sometido a una forma distinta del experimento. 

A un grupo se le presentaron 20 muestras de voz en su lengua materna y tuvo que discernir si los clips eran reales o falsos. Los participantes identificaron correctamente las falsificaciones profundas y las voces auténticas aproximadamente el 73% de las veces, tanto para las muestras de voz en inglés como en mandarín. 

A otro grupo se le proporcionaron 20 pares de clips de audio seleccionados al azar. Cada par contenía la misma frase pronunciada por un humano y la falsificación profunda, y los participantes debían identificar la falsificación. Esto aumentó la precisión de detección a 85,59%.

En el primer experimento, es probable que la detección humana de falsificaciones profundas en la vida real sea peor de lo que sugieren los resultados, ya que no se advertiría a la gente de que podría estar escuchando habla generada por IA. 

Por el contrario, en el segundo experimento, los oyentes tienen una opción binaria, lo que les otorga una ventaja.

Curiosamente, hubo relativamente poca diferencia en los resultados del inglés en mandarín. 

Aumentan las estafas por discursos falsos en la vida real

"Esta configuración no es totalmente representativa de la vida real", afirma Mai. "Los oyentes no sabrían de antemano si lo que están escuchando es real, y factores como el sexo y la edad del hablante podrían afectar a la detección".

Sin embargo, existen otras limitaciones, ya que el estudio no desafió a los oyentes a determinar falsificaciones profundas diseñadas para sonar como alguien que conocen, como un hijo, una madre, etc. Si los estafadores se dirigieran a alguien con una falsificación profunda, es casi seguro que clonarían la voz de alguien. Esto es relativamente fácil si alguien ha subido audio o vídeos de sí mismo a Internet, por ejemplo, para un vídeo en las redes sociales, un podcast, una emisión de radio o televisión. 

Esto ya está ocurriendo, con una Encuesta de McAfee que muestra que aproximadamente 1 de cada 4 adultos es consciente de que se están produciendo fraudes de voz falsa.

El fraude relacionado con la aumento en Chinay un analista predijo que El fraude apoyado en la IA podría costar caro a las personas y a las economías. Hay numerosas anécdotas aterradoras de personas que ya han sido blanco de llamadas falsas, a menudo en forma de un familiar asustado que pide dinero para salir de una situación difícil. 

Este estudio descubrió que las voces falsas "se mueven por el valle inquietante", imitando el sonido natural de las voces humanas pero careciendo de los matices sutiles que provocan sospechas en algunos oyentes. Por supuesto, las voces falsas profundas de la IA no dejan de mejorar. 

En general, el estudio demuestra que la tecnología actual ya es muy competente, y los intentos de mejorar la capacidad de los individuos para detectar voces falsas en el estudio fueron en gran medida infructuosos. 

Los autores subrayan la necesidad de desarrollar detectores de voz AI competentes y de educar a la población sobre lo sofisticadas que son ya las voces falsas profundas.

Sería muy útil investigar en el futuro las falsificaciones profundas replicando las voces de personas conocidas por los participantes en el estudio.

Hay formas prácticas de identificar las estafas de discurso falso profundo, como establecer palabras clave entre familiares o pedir a quienes llaman que describan un dato personal conocido por todos.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales