El conflicto entre Israel y Gaza se ha convertido en el telón de fondo de la evolución del uso de la IA en la creación de falsificaciones profundas, lo que se ha convertido en un problema para Israel, Gaza y los observadores externos.
Entre las diversas imágenes procedentes de Gaza, algunas son especialmente chocantes. Los "bebés ensangrentados y abandonados", como se les describió, adquirieron notoriedad en Internet.
Una imagen de un bebé incinerado fue compartida por influencers, como Ben Shapiro, llegando a millones de personas antes de ser envuelto en polémica por ser generados por IA.
Muchas de estas imágenes falsas muestran signos sutiles pero reveladores de manipulación digital, como "dedos que se curvan de forma extraña u ojos que brillan con una luz antinatural". "Sin embargo, detectar estos signos en el momento es excepcionalmente difícil.
Además, la calidad de las imágenes varía. Algunas son fotos reutilizadas de diferentes conflictos, mientras que otras están totalmente generadas por la IA. Con el tiempo, solo conseguirán ser realistas.
Como describe el director general de CREOpoint, Jean-Claude Goldenstein: "Va a empeorar -mucho- antes de mejorar". Su empresa ha compilado una base de datos de los deep fakes más virales del conflicto, mostrando el creciente papel de la IA en la fabricación de realidades en los conflictos.
El objetivo principal de las falsificaciones profundas es provocar conmoción y angustia, de ahí que se dirijan con frecuencia a los niños para intensificar las respuestas emocionales.
Como dice Imran Ahmed, Director General del Centro para Contrarrestar el Odio Digital, explica"La desinformación está diseñada para que te comprometas con ella".
Las falsificaciones profundas son cada vez más frecuentes
Las falsificaciones profundas son un efecto omnipresente, o un efecto secundario, del desarrollo de la IA. Las falsificaciones profundas de IA no solo corren el riesgo de ser vistas como auténticas, sino también de que los contenidos reales sean vistos como falsos.
Además, este fenómeno no se limita al conflicto de Gaza. Contenidos similares generados por IA aparecieron durante la invasión rusa de Ucrania en 2022, incluido un vídeo alterado del presidente ucraniano Zelenskyy.
Otros ejemplos son las imágenes falsas de políticos, como Trump abraza a Fauci. Y el problema no se limita a las imágenes: las voces falsas tienen políticos implicados en conversaciones en las que no participaron o no se produjeron.
Las empresas tecnológicas de todo el mundo están respondiendo con el desarrollo de filtros de IA capaces de detectar falsificaciones, autenticar imágenes y analizar textos en busca de desinformación. Google, YouTube y Meta se comprometieron recientemente a etiquetar los contenidos generados por IA, pero conseguirlo técnicamente es todo un reto.
También hemos asistido a una avalancha de servicios de verificación de hechos diseñados para poner de relieve contenidos dudosos, pero sus procesos son falibles y lentos. ¿Y cuáles son las implicaciones de que un "reputado" verificador de hechos califique incorrectamente algo como real o falso?
Con unas elecciones cruciales en el horizonte, nada menos que las presidenciales estadounidenses de 2024, los deep fakes están despertando una intensa paranoia. Sus efectos aún no han tocado techo.