En la Conferencia de Seguridad de Múnich, una coalición de 20 gigantes tecnológicos, entre ellos OpenAI, Meta, Microsoft y otros, declararon un esfuerzo conjunto para combatir los contenidos engañosos de IA que influyen en las elecciones de todo el mundo.
Esto se produce en medio de la creciente preocupación de que las falsificaciones profundas generadas por IA puedan manipular los procesos electorales, sobre todo cuando se avecinan elecciones importantes en varios países este año.
Ya hemos visto las falsificaciones profundas juegan un papel al menos en las elecciones de Pakistán, Indonesia, Eslovaquia y Bangladesh.
Este nuevo acuerdo incluye compromisos para desarrollar herramientas que permitan detectar y abordar los medios de comunicación engañosos generados por IA, sensibilizar a la opinión pública sobre los contenidos engañosos y tomar medidas rápidas para eliminar dichos contenidos de sus plataformas.
Pero lo cierto es que ya lo hemos oído muchas veces. ¿Cuál es la diferencia?
Aunque los plazos de aplicación siguen siendo imprecisos, las empresas subrayaron la necesidad de un planteamiento colectivo para hacer frente a esta amenaza en evolución.
Las empresas tecnológicas se comprometieron a desplegar herramientas de colaboración para detectar y mitigar la difusión de contenidos electorales nocivos generados por IA, incluidas técnicas como la marca de agua para certificar el origen y las alteraciones de los contenidos. También se comprometieron a ser transparentes en sus esfuerzos y a evaluar los riesgos que plantean sus modelos generativos de IA.
"Creo que la utilidad de este acuerdo radica en la amplitud de las empresas que lo suscriben", declaró Nick Clegg, Presidente de Asuntos Mundiales de Meta Platforms.
"Está muy bien que las plataformas individuales desarrollen nuevas políticas de detección, procedencia, etiquetado, marcas de agua, etc., pero a menos que haya un compromiso más amplio para hacerlo de forma interoperable y compartida, nos vamos a quedar con un batiburrillo de compromisos diferentes."
De nuevo, nada que no hayamos oído antes. Ha habido varios acuerdos interprofesionales, pero ningún plan sustancialmente eficaz para acabar con las falsificaciones profundas.
Por ejemplo, MLCommons colaboró con Big Tech definir puntos de referencia en materia de seguridad, empresas comprometidas con las marcas de aguay se unió al Foro Frontier ModelTambién en este caso, para establecer un "enfoque unificado". Se me acaban de ocurrir estos tres acuerdos sectoriales, pero sin duda hay muchos más.
Las falsificaciones profundas no son fáciles de detectar, sobre todo a gran escala. Se han convertido en algo tan parecido a lo real que su identificación mediante IA o técnicas algorítmicas es muy difícil. excepcionalmente difícil.
Las empresas tecnológicas han respondido etiquetando los contenidos con metadatos, identificándolos como generados por IA, pero ¿cómo se identifica así el propósito de la imagen?
Los metadatos también se eliminan fácilmente de un archivo. Además, siempre habrá empresas de IA que no respeten los acuerdos y formas de burlar los controles establecidos.
Dana Rao, Chief Trust Officer de Adobe, explicó cómo y por qué este contenido era eficaz, afirmando: "Hay una conexión emocional con el audio, el vídeo y las imágenes", dijo. "Tu cerebro está cableado para creer ese tipo de medios".
De hecho, los deep fakes parecen propagarse mucho después de ser declarados falsos. Aunque es difícil cuantificar en qué medida cambian nuestro comportamiento, la magnitud de su impacto -con contenidos vistos por millones de personas a la vez- es algo con lo que no se puede correr ningún riesgo.
Lo cierto es que podemos esperar más incidentes y polémicas de deep fake relacionados con la IA.
La concienciación individual y el pensamiento crítico serán la mayor arma de la humanidad para combatir los impactos negativos.