Un director deportivo de un instituto de Baltimore fue detenido el jueves después de que la policía dijera que presuntamente había utilizado IA para crear un clip de audio falso del director del centro.
En enero, informamos sobre el clip de audio que pretendía ser una grabación del director del instituto de Pikesville, Eric Eiswert, haciendo comentarios racistas y antisemitas sobre el personal y los alumnos.
En aquel momento, Eiswert negó la autenticidad del audio y se afirmó que el clip era una falsificación de AI.
El audio, ampliamente difundido, hizo que Eiswert perdiera temporalmente su empleo mientras se investigaba su autenticidad. La reacción de profesores, alumnos y otros miembros de la comunidad, que creían que el clip era auténtico, trastornó la vida de Eiswert.
Si se escucha el clip de audio es fácil entender por qué la gente creía que era auténtico.
Ver esta publicación en Instagram
Los expertos han llegado a la conclusión de que se trataba de una falsificación de la IA, basándose en el tono plano del audio, la ausencia de sonidos respiratorios o pausas coherentes y unos sonidos de fondo inusualmente limpios.
Se alega que Dazhon Darien, ex director deportivo de Pikesville High, hizo la falsificación de la IA como represalia porque Eiswert inició una investigación sobre su malversación de fondos escolares.
Dazhon Darien ha sido detenido y acusado de perturbar el funcionamiento de la escuela, robo, represalias contra un testigo y acoso. El acta de acusación señalaba que Darien había utilizado los ordenadores de la escuela "para acceder a OpenAI y los servicios de chat de Microsoft Bing".
En la lista de cargos no figuraba algo que pronto podría ser delito: utilizar IA para falsificar la voz de alguien.
Facturas como la Ley contra las falsificaciones y la Ley contra el Fraude AI se han presentado en la US Congreso, pero aún no se han aprobado. Así que cuando Darien utilizó IA para crear un clip de audio falso no consentido de la voz de Eiswert, técnicamente no era un delito.
El hecho de que un experto tardara semanas en confirmar que el clip de audio era falso pone de manifiesto lo poco preparados que están la sociedad y las autoridades para hacer frente a los nuevos problemas que plantea la IA generativa.
La facilidad con la que se pueden generar estas falsificaciones agrava el problema. Si un profesor de gimnasia puede montar una falsificación pasable, imagínense lo que podrían conseguir los malos actores técnicamente más competentes.
A falta de una forma sencilla de identificar audio y vídeo falsos, nuestra mejor defensa puede ser asumir que las cosas son falsas hasta que se confirme que son reales.