O conflito entre Israel e Gaza tornou-se um pano de fundo para a evolução da utilização da IA na criação de falsificações profundas, o que se tornou um problema para Israel, Gaza e observadores externos.
Entre as várias imagens de Gaza, algumas são particularmente chocantes. Os "bebés abandonados e ensanguentados", como foram descritos, ganharam notoriedade na Internet.
Uma imagem de um bebé incinerado foi partilhada por influenciadores, como Ben Shapiro, chegando a milhões de pessoas antes de ser lançado na controvérsia por serem gerados por IA.
Muitas destas imagens falsas exibem sinais subtis mas reveladores de manipulação digital, como "dedos que se enrolam de forma estranha, ou olhos que brilham com uma luz não natural". "No entanto, a deteção destes sinais no calor do momento é excecionalmente complicada.
Além disso, a qualidade das imagens varia. Algumas são fotos reaproveitadas de diferentes conflitos, enquanto outras são inteiramente geradas por IA. Com o tempo, só se tornarão realistas.
Como descreve o diretor executivo da CREOpoint, Jean-Claude Goldenstein, "vai piorar - muito pior - antes de melhorar". A sua empresa compilou uma base de dados dos deep fakes mais virais do conflito, demonstrando o papel crescente da IA na fabricação de realidades em conflitos.
O principal objetivo das falsificações profundas é provocar choque e angústia, daí que visem frequentemente as crianças para intensificar as reacções emocionais.
Como Imran Ahmed, diretor executivo do Centro de Combate ao Ódio Digital, explica"A desinformação é concebida para nos fazer participar nela".
As falsificações profundas estão sempre a aumentar
As falsificações profundas são um efeito generalizado, ou um efeito secundário, do desenvolvimento da IA. Não só as falsificações profundas de IA correm o risco de serem vistas como autênticas, como também correm o risco de os conteúdos reais serem vistos como falsos.
Além disso, este fenómeno não se limita certamente ao conflito de Gaza. Conteúdos semelhantes gerados por IA surgiram durante a invasão russa da Ucrânia em 2022, incluindo um vídeo alterado do presidente ucraniano Zelenskyy.
Outros exemplos incluem imagens falsas de políticos, tais como Trump abraçado a Fauci. E o problema não se fica pelas imagens - as vozes falsas têm políticos implicados em conversações em que não participaram ou que não ocorreram de todo.
As empresas de tecnologia de todo o mundo estão a responder com o desenvolvimento de filtros de IA capazes de detetar deepfakes, autenticar imagens e analisar textos para detetar desinformação. Recentemente, a Google, o YouTube e a Meta prometeram rotular os conteúdos gerados por IA, mas tecnicamente é um desafio.
Assistimos também a um dilúvio de serviços de verificação de factos destinados a pôr em evidência conteúdos duvidosos, mas os seus processos são falíveis e lentos. E quais são as implicações de um verificador de factos "respeitável" rotular incorretamente algo como verdadeiro ou falso?
Com eleições cruciais no horizonte, nomeadamente a eleição presidencial de 2024 nos EUA, os deep fakes estão a suscitar uma intensa paranoia. Os seus impactos ainda não atingiram um limite máximo.