Justo cuando creías que te estabas acostumbrando a detectar noticias falsas, ahora tenemos que lidiar con imágenes falsas que aparecen en las redes sociales.
El lunes 22 de mayo se produjo una explosión en el Pentágono, o al menos eso es lo que podrías haber creído si hubieras visto esta foto que circula por Twitter.
No fue hasta que los observadores se acercaron al edificio y a las barandillas cuando se dieron cuenta de que, en realidad, se trataba de una imagen generada por la IA. Si te fijas bien, verás que se funden, pero no es nada evidente.
Seguro que esta foto que dice mostrar una "explosión cerca del pentágono" está generada por IA.
Fíjate en la fachada del edificio y en la forma en que la valla se funde con las barreras de la multitud. Tampoco hay otras imágenes, vídeos o personas que publiquen como testigos de primera mano. pic.twitter.com/t1YKQabuNL
- Nick Waters (@N_Waters89) 22 de mayo de 2023
El Departamento de Bomberos de Arlington denunció rápidamente que las imágenes eran falsas, pero eso no fue antes de que la historia se recogido por Russia Today - que lo borró inmediatamente- y los medios indios News18 MP, First India News, Times Now Navbharat y Zee News.
Sorprendentemente, la reacción fue lo suficientemente sustancial como para causar la La bolsa estadounidense caerá un 0,3% entre las 10.06 am y las 10.10 am ET.
No se ha identificado al autor original ni la herramienta utilizada para generar la imagen, aunque es probable que fuera DALL-E, Difusión estableo A mitad de camino.
Aumentan las falsificaciones profundas
Las falsificaciones profundas no son nada nuevo, pero ésta no ha sido tan benigna como la del Papa vistiendo un chubasquero de Balenciaga.
Este último fiasco de deep fake también pone de relieve el peligro de "Twitter Blue", ya que varias cuentas que compartieron la historia llevaban una marca de verificación azul, incluida una que se hacía pasar por Bloomberg. Twitter Blue ha sido criticado por dar credibilidad a cuentas que se hacen pasar por famosos, empresas e incluso organismos públicos.
Algunas herramientas de IA pueden detectar imágenes falsas, como la próxima "Acerca de esta imagen".
Sin embargo, la calidad de las imágenes generadas por la IA no hará más que mejorar, por lo que sigue correspondiendo a los humanos juzgar qué es real y qué no, al menos por ahora.