Alguns dos melhores detectores de imagem de IA podem ser enganados adicionando textura à imagem ou degradando ligeiramente a imagem.
Embora as imagens geradas por IA não existam há muito tempo, sabemos que não devemos confiar nos nossos olhos. Mas acontece que nem sequer podemos confiar nas máquinas que supostamente nos dizem se uma imagem é verdadeira ou falsa.
Uma experiência recente noticiado pelo New York Times descobriram que, na sua maioria, os detectores de imagens de IA como Colmeia ou Umm-maybe foram capazes de classificar corretamente imagens geradas por IA. Isto é, até adicionarem grão à imagem.
Quando degradaram as imagens, adicionando uma pequena quantidade de grão, ou ruído pixelizado, os detectores ficaram convencidos de que as imagens geradas por IA eram reais. Num caso, uma imagem a preto e branco de um homem foi primeiro corretamente classificada como tendo uma probabilidade de 99% de ser gerada por IA. Ao adicionar uma pequena quantidade de grão, o detetor baixou subitamente essa probabilidade para 3,3%, dizendo essencialmente que a imagem era quase de certeza real.
Quando imagens falsas do Papa num pulôver Balenciaga enganam algumas pessoas, é uma diversão inofensiva. Mas quando imagens geradas por IA são utilizadas em eleições e não podem ser identificadas como falsas, as implicações podem ser mais graves.
Ron DeSantis foi recentemente criticado por ter utilizado imagens geradas por IA na sua campanha. A sua campanha intercalou 3 imagens reais de Trump com 3 imagens geradas por IA de Trump a abraçar e a beijar o Dr. Anthony Fauci. Agência France-Press foi o primeiro a chamar a atenção para as falsificações.
Se estivermos vagamente familiarizados com a política de Trump, não precisamos de software para nos dizer que uma fotografia dele a beijar Fauci é falsa. Mas os detectores de imagens de IA não utilizam o contexto ou o tema para decidir se uma fotografia é real ou não. Eles olham para os padrões de píxeis que os geradores de imagens de IA produzem quando criam uma imagem.
Acontece que, se pegarmos nessas imagens de alta resolução e as degradarmos um pouco, até os melhores detectores de falsificações de IA dirão frequentemente que a imagem é genuína. Até mesmo pedir ao Midjourney para produzir uma fotografia vintage de má qualidade é suficiente para enganar algumas destas ferramentas.
Trata-se de um desenvolvimento interessante, mas resta saber até que ponto é significativo. As consequências no mundo real de Desinformação gerada por IA não são susceptíveis de serem evitadas por detectores infalíveis. Uma dose saudável de ceticismo e a educação das pessoas sobre os riscos de confiar nos seus olhos serão provavelmente muito mais eficazes.