À medida que nos aproximamos das eleições cruciais deste ano - e muito menos das eleições nos EUA - estamos a assistir ao gémeo maléfico da desinformação profunda e falsa - o "dividendo do mentiroso".
As falsificações profundas referem-se a cópias incrivelmente realistas de áudio, vídeo ou imagens geradas por IA.
Houve numerosos exemplos de deep fakes com impacto nas pessoas e na sociedade, desde uma imagem do Pentágono gerada por IA a uma imagem tangível que afectaram o mercado de acções no ano passado a uma voz de chamada automática imitando o Presidente Biden esta semana.
No entanto, as falsificações profundas não são apenas úteis para distorcer a verdade - são também excelentes para a refutar. Este facto foi designado por "dividendo do mentiroso", descrevendo essencialmente os benefícios que alguém recebe ao rotular conteúdo autêntico como falso.
Por exemplo, em resposta a um anúncio da Fox News que mostrava as suas asneiras públicas no ano passado, o antigo Presidente Donald Trump afirmou que a as filmagens foram criadas por IA.
Ele denunciou o anúncio num post no Truth Social, dizendo: "Os pervertidos e perdedores do fracassado e outrora dissolvido Projeto Lincoln, e outros, estão a utilizar a IA nos seus falsos anúncios televisivos para me fazerem parecer tão mau e patético como o corrupto Joe Biden, o que não é fácil de fazer".
O Projeto Lincoln refutou então a afirmação de Trump, salientando que o anúncio incluía incidentes bem documentados da sua presidência.
Libby Lange, analista da fornecedor de análises GraphikaO autor do artigo, o professor de informática, ecoa a preocupação do dividendo do mentiroso, afirmando que "a IA desestabiliza o próprio conceito de verdade. Se tudo pode ser falso, e se toda a gente afirma que tudo é falso ou manipulado de alguma forma, não há qualquer noção de verdade."
A nível mundial, os políticos estão agora a utilizar regularmente a IA como bode expiatório. Por exemplo, um vídeo controverso de um político de Taiwan que sugeria um caso extraconjugal foi rapidamente descartado como sendo potencialmente gerado pela IA.
Do mesmo modo, no estado indiano de Tamil Nadu, um político refutou uma gravação áudio divulgada como sendo "gerada por máquinas", embora a sua autenticidade permaneça incerta.
Também vimos imagens de IA de crimes de guerra em Israel, na Palestina e na Ucrânia, como a de um bebé incinerado, que Ben Shapiro partilhou com milhões de seguidores antes de ser desacreditado como falso.
Também houve exemplos não políticos, como um clip de voz alegadamente de um diretor de uma escola do condado de Baltimore a fazer comentários racistas. Alegadamente, estes foram gerados por IA, mas é difícil confirmar isso sem mais contexto.
As falsificações profundas foram um tema quente na recente Fórum Económico Mundial em Davosmas os esforços para os travar até agora têm sido superficiais e ineficazes. As empresas de tecnologia estão a explorar formas de verificar automaticamente os conteúdos gerados por IA, mas só os especialistas podem discernir com fiabilidade os meios de comunicação verdadeiros dos falsos.
E até os especialistas se enganam, pois há casos em que detectores especializados em IA chegam a conclusões contestadas sobre a autenticidade de uma imagem.
Depois, suponhamos que as imagens são "oficialmente" classificadas como verdadeiras ou falsas, mas que o veredito está errado - só se pode imaginar o inferno que pode surgir.