Las principales empresas de IA se comprometen a desarrollar técnicas de marca de agua

22 de julio de 2023

Marca de agua AI

En un intento de atajar las falsificaciones y la desinformación, las siete empresas de inteligencia artificial que se han adherido esta semana al marco voluntario de Estados Unidos se han comprometido a poner marcas de agua a los contenidos generados por inteligencia artificial.

Los participantes en la marco voluntarioanunciados por la Casa Blanca el 21 de junio, incluyen a Google, OpenAI, Microsoft, Meta, Amazon, Anthropic e Inflection.

Como parte de ese marco, estas empresas se han comprometido a desarrollar marcas de agua para ayudar al público a identificar el origen de los contenidos generados por IA y reducir el engaño.

Al igual que una marca de agua convencional, una marca de agua AI se adjunta a una imagen, vídeo, archivo de audio o texto. 

La marca de agua en los contenidos generados por IA podría reducir las estafas, las falsas campañas virales y la sextorsión. "Esta marca de agua permitirá que florezca la creatividad con IA, pero reducirá los riesgos de fraude y engaño", afirma la Casa Blanca. 

En un entrada del blog publicado poco después de los anuncios de la Casa Blanca, OpenAI detalló su acuerdo para "desarrollar mecanismos sólidos, incluidos sistemas de procedencia y/o marcas de agua para contenidos sonoros o visuales". También desarrollará "herramientas o APIs para establecer si un contenido se hizo con su sistema."

Google planea mejorar la fiabilidad de la información integrando metadatos y "otras técnicas innovadoras" además de la marca de agua. 

La Casa Blanca anunció el viernes otras salvaguardias, como la realización de pruebas internas y externas de los sistemas de IA antes de su lanzamiento, el aumento de la inversión en ciberseguridad y el fomento de la colaboración en todo el sector para reducir los riesgos de la IA.

OpenAI dijo que estos compromisos marcan "un paso importante en el avance de una gobernanza significativa y eficaz de la IA, tanto en EE.UU. como en todo el mundo."

La empresa también prometió "invertir en investigación en áreas que puedan ayudar a informar la regulación, como técnicas para evaluar capacidades potencialmente peligrosas en modelos de IA."

Nick Clegg, Presidente de Asuntos Globales de Meta, se hizo eco de la opinión de OpenAI y describió estos compromisos como un "primer paso importante para garantizar el establecimiento de guardarraíles responsables para la IA".

¿Funcionarán las marcas de agua AI?

La marca de agua en los contenidos generados por inteligencia artificial, aunque conceptualmente atractiva, dista mucho de ser infalible. 

Las imágenes, los vídeos y las grabaciones de audio pueden llevar gráficos o sonidos diminutos y débiles que indican su origen generado por la IA.

Del mismo modo, la integración de metadatos en los archivos generados por IA puede proporcionar información sobre la fuente y el proceso de creación del contenido. Sin embargo, la eliminación de las marcas de agua mediante otras herramientas de IA o la supresión de los metadatos probablemente resulten sencillas. 

Si se pueden eliminar las marcas de agua, los contenidos generados por IA sin marca de agua ganan repentinamente legitimidad. La ausencia de una marca de agua podría utilizarse para argumentar que una imagen es auténtica cuando en realidad no lo es. 

Cuando se trata de texto generado por IA, no hay una solución sencilla. A diferencia de las imágenes o el audio, el texto no se presta fácilmente a incrustar marcas de agua. 

El método principal consiste en pasar el texto por detectores de IA, que analizan la perplejidad del texto -una medida de la probabilidad de que un modelo de IA prediga una secuencia determinada de palabras- para estimar si está generado por IA. 

Los detectores de IA tienen sus defectos. Suelen arrojar altos índices de falsos positivos, lo que lleva a marcar erróneamente contenidos no generados por IA. 

Este problema se agrava cuando se analizan textos escritos por personas cuya lengua materna no es el inglés, que pueden utilizar expresiones menos comunes o tener una sintaxis atípica, lo que aumenta aún más las tasas de falsos positivos. Un estudio reciente desaconseja el uso de detectores de IA en entornos educativos y de contratación por estos motivos.

Además, a medida que evolucionan los modelos de IA, la línea que separa los contenidos escritos por humanos de los escritos por la IA se vuelve cada vez más difusa. A medida que la IA mejore en la imitación de los estilos de escritura humana, los detectores basados en la perplejidad serán menos fiables. 

Aunque la marca de agua es un paso hacia la mejora de la transparencia y la rendición de cuentas en los contenidos generados por IA, no es una solución sencilla y no sirve como elemento disuasorio definitivo ni como "bala de plata".

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales