El laboratorio de investigación DeepMind de Google ha presentado una versión beta de SynthID, su nueva herramienta para poner marcas de agua e identificar imágenes generadas por IA.
La preocupación por los deepfakes y la posibilidad de que la IA fomente la desinformación ha puesto de manifiesto la necesidad de encontrar un modo de detectar las imágenes generadas por IA.
Las marcas de agua convencionales que se añaden a las imágenes por motivos de derechos de autor pueden eliminarse fácilmente recortándolas, añadiendo filtros o editándolas. Incluso los metadatos pueden eliminarse de las imágenes.
SynthID incrusta la marca de agua digital directamente en los píxeles de la imagen. El número de píxeles editados es tan pequeño que la marca de agua es imperceptible para el ojo humano. Escalar, recortar o reducir la resolución de la imagen no eliminará la marca de agua.
Si supieras dónde está la marca de agua, técnicamente podrías eliminarla, pero también dañarías la imagen.
Google está poniendo SynthID a disposición de algunos de sus clientes que utilizan su generador de imágenes, Imagen, en la plataforma Vertex AI de Google.
Los usuarios que crean una imagen con Imagen pueden añadir la marca de agua o utilizar SynthID para detectar si una imagen se creó con Imagen. Sin embargo, no es un método infalible, ya que la post sobre DeepMind reconoció.
"La herramienta ofrece tres niveles de confianza para interpretar los resultados de la identificación de marcas de agua. Si se detecta una marca de agua digital, es probable que parte de la imagen haya sido generada por Imagen."
En Publicación en el blog de DeepMind también dijo que "SynthID no es infalible contra manipulaciones extremas de la imagen".
¿SynthID marcará alguna diferencia?
Google no está promocionando esta herramienta como la panacea contra las imágenes falsas, pero es un comienzo. Si el método resulta eficaz y gana adeptos entre otros generadores de imágenes de IA, puede que sea más fácil detectar una falsificación.
Incluso si se desarrollara un método infalible basado en algo como SynthID, ¿cómo se haría cumplir? Hay tantos generadores de imágenes de IA que quedan fuera de cualquier tipo de regulación.
Si no puedes evitar que la gente use IA para generar imágenes de abusos a menoresEntonces, ¿cómo se les obliga a añadir una marca de agua a las imágenes falsas?
Otro reto para empresas como Google es que, para que una herramienta fomente la confianza, tiene que ser infalible. Si le dices a la gente que una imagen con carga política tiene 75% probabilidades de ser falsa, eso no elimina las discusiones sobre su autenticidad.
Añadir una marca de agua como SynthID a una imagen falsa parece una gran idea, pero ¿qué impide que alguien añada una marca de agua similar a una imagen auténtica?
El pensamiento crítico y una buena dosis de escepticismo pueden ser nuestra mejor defensa contra las falsificaciones de IA durante un tiempo.