Las voces falsas clonadas por inteligencia artificial fueron noticia recientemente por una robollamada de "Biden", pero la gente corriente se está viendo afectada a medida que la tecnología se hace más accesible y más difícil de detectar.
Hace dos semanas se hizo pública una grabación de audio del director del instituto de Pikesville, Eric Eiswert, en la que parecía que éste hacía comentarios racistas y antisemitas sobre el personal y los alumnos.
Eiswert negó la autenticidad del audio, postura respaldada por Billy Burke, director ejecutivo del Consejo de Empleados Administrativos y Supervisores, que representa a los administradores del condado de Baltimore.
"Creemos que está generado por IA", dijo Burke. "Él no dijo eso".
En la era de las falsificaciones de IA, la "dividendo del mentiroso" da a cualquiera una salida fácil para gritar "¡Falso!" cuando está en apuros. Al mismo tiempo, la clonación de voz por IA puede causar mucho daño a la reputación de gente corriente como Eiswert.
¿Tú qué crees? ¿Falso o real?
Ver esta publicación en Instagram
O el audio es auténtico y deberían despedirle, o es una falsificación de la IA y habría que demandar a alguien.
Dos semanas después, nadie puede decirlo, por lo que el trabajo y la reputación de Eiswert siguen en el limbo. Esto demuestra la calidad de las herramientas de clonación de voz y la complejidad de los problemas que plantea esta tecnología.
Hace un año, podríamos haber desestimado la afirmación de Eiswert sobre la falsificación de IA, argumentando que no existía una tecnología de IA tan avanzada. Ahora, empresas como Eleven Labs o herramientas baratas como Parrot AI facilitan a cualquiera la creación de impresionantes clones de voz.
OpenVoice, lanzado a principios de este mes, utiliza sólo segundos de audio para clonar una voz y permite un control granular de la emoción, el acento, el tono, el ritmo y mucho más.
En la actualidad, estamos orgullosos de que nuestro algoritmo OpenVoice sea de código abierto, abrazando nuestra ética central: IA para todos.
Experiméntelo ahora: https://t.co/zHJpeVpX3t. Clona voces con una precisión inigualable, con un control granular del tono, desde la emoción hasta el acento, el ritmo, las pausas y la entonación, utilizando sólo... pic.twitter.com/RwmYajpxOt
- MyShell (@myshell_ai) 2 de enero de 2024
Hany Farid, profesor de la Universidad de California en Berkley, es especialista en análisis forense digital y autentificación de medios digitales. Cuando un periodista de WJZ le pidió que analizara el vídeo, Farid dijo que obviamente había sido editado, pero que no podía confirmar si era auténtico o no.
En una entrevista con Scientific American, Farid declaró: "He analizado el audio con algunas de nuestras herramientas, que aún no están a disposición del público. Creo que es probable -pero no seguro- que este audio esté generado por IA... En general, creo que las pruebas apuntan a que este audio no es auténtico. Pero antes de tomar una decisión definitiva, necesitamos saber más".
Farid dijo que había quizá 5 o menos laboratorios en todo el mundo capaces de determinar con fiabilidad si el audio es falso o auténtico.
El clon de IA que Dudesy hizo de George Carlin es un gran ejemplo de cómo la clonación de voz por IA está mejorando mucho en lo que respecta a la inflexión y la emoción. Este vídeo ya no está disponible.
Los creadores de los chatbots mysentient.ai han creado una parodia Debate Trump vs Biden. Las cosas que dicen 'Trump' y 'Biden' son tan disparatadas que obviamente están hechas para el efecto cómico, pero suenan realmente bien.
A medida que estas herramientas mejoren y se hagan más accesibles, situaciones como la del director de Baltimore afectarán cada vez más a políticos y ciudadanos.
Si has enviado una nota de voz por WhatsApp o dejado un mensaje en un servicio de atención de llamadas, podrías ser el siguiente. O, si alguien te grabó diciendo algo incómodo, podrías decir que es una falsificación de la IA. Nadie parece ser capaz de demostrarlo de ninguna de las maneras.