No dia das eleições na Eslováquia, uma gravação áudio polémica apareceu no Facebook poucas horas depois de ter sido publicada.
Apresentava vozes supostamente pertencentes a Michal Šimečka, o líder do partido Eslováquia Progressista, e Monika Tódová do jornal Denník N.
A conversa girou em torno da fraude eleitoral e da compra de votos da minoria cigana, gerando preocupações com a corrupção e confusão nas redes sociais.
A gravação foi prontamente refutada como falsa tanto por Šimečka como por Denník N. O site de verificação de factos da Agence France-Presse (AFP) indicou sinais de manipulação de IA no áudio e subsequentemente relatado por agências de notícias internacionais.
Dado o timing - nas 48 horas de silêncio mediático antes das eleições - foi difícil desmentir o post a tempo.
O partido Smer-SD, liderado pelo antigo primeiro-ministro eslovaco Robert Fico, obteve 23% na votação de sábado, batendo o partido centrista Eslováquia Progressista com 18%.
Além disso, como se tratava de conteúdo áudio, passou ao lado da política do Meta, que visa principalmente os vídeos manipulados.
Antes da votação, a chefe digital da UE, Věra Jourová, salientou a suscetibilidade das eleições europeias a tácticas de manipulação em grande escala, sugerindo influências externas como as de Moscovo.
Agora, as nações estão em alerta máximo para a interferência eleitoral infligida pela IA, o que parece inevitável - é mais uma questão de saber se podemos impedi-la e que danos pode causar. A Polónia, com eleições iminentes, será o próximo teste.
Em 2024 e 2025, estão também no horizonte eleições importantes, nomeadamente nos EUA e na Índia, no próximo ano.
Os verificadores de factos, como a AFP, sublinham que a IA está a evoluir rapidamente para uma ferramenta potente para desestabilizar as eleições e que estamos mal equipados para a combater. Veronika Hincová Frankovská, da organização de verificação de factos Demagog, comentou: "Não estamos tão preparados para ela como deveríamos estar".
A equipa de Frankovská verificou a origem do áudio eslovaco falso e consultou especialistas antes de utilizar um classificador de discurso de IA da Eleven Labs para determinar a sua autenticidade.
Apesar da evolução da IA, dependemos em grande medida dos humanos para detetar falsificações profundas.
As falsificações profundas de IA estão a tornar-se um problema crítico
O papel da IA na disseminação da desinformação está a crescer e provar que as imagens, vídeos e gravações da IA são falsas é uma tarefa hercúlea.
A maioria dos conteúdos falsos é proibida nas redes sociais. Ben Walter, representante da Meta, declarou: "As nossas normas comunitárias aplicam-se a todos os conteúdos... e tomaremos medidas contra os conteúdos que violem estas políticas."
No entanto, na prática, impedir a propagação de conteúdos falsos profundos está a revelar-se intratável, e medidas como a IA as marcas de água são lamentavelmente ineficazes.
Enquanto a Polónia se prepara para as eleições, há apreensão quanto ao possível afluxo de conteúdos gerados por IA e a desinformação já está a causar agitação.
Jakub Śliż, do grupo polaco de verificação de factos, a Associação Pravda, disse: "Como organização de verificação de factos, não temos um plano concreto de como lidar com isso".
Quando os resultados eleitorais dependem de margens apertadas e de diálogos políticos amargos, como aconteceu na Eslováquia, o impacto da desinformação gerada pela IA pode ser grave. Além disso, incidentes anteriores de desinformação gerada por algoritmos, como o escândalo da Cambridge Analytica, dizem-nos que algumas partes interessadas podem ser cúmplices destas tácticas.
As eleições presidenciais de 2016 nos EUA já estavam repletas de desinformação impulsionada por activistas extremistas, interferência estrangeira e meios de comunicação enganadores.
Em 2020, as alegações infundadas de fraude eleitoral tornaram-se predominantes, reforçando um movimento contra a democracia que procurava anular os resultados.
A desinformação impulsionada pela IA não só corre o risco de enganar o público, como também ameaça sobrecarregar um ambiente de informação já frágil, criando um ar de falsidade, desconfiança e engano.
"Os graus de confiança diminuirão, o trabalho dos jornalistas e de outros que tentam divulgar informações reais tornar-se-á mais difícil", afirma Ben Winters, representante sénior do Electronic Privacy Information Center.
Novas ferramentas para velhas tácticas
Imagine um mundo onde os conteúdos manipuladores são produzidos a um custo tão insignificante e com tanta facilidade que se tornam comuns.
A desinformação com recurso à tecnologia não é um fenómeno novo, mas as ferramentas de IA estão perfeitamente posicionadas para potenciar essas tácticas.
Já houve muitas escaramuças iniciais que indicam o que está para vir. No início do ano, um Imagem gerada por IA de um Pentágono A explosão teve um impacto tangível nos mercados bolsistas, mesmo que apenas por alguns minutos, antes de os utilizadores das redes sociais denunciarem as imagens virais como falsas.
Imagens renderizadas por IA, aparentemente mostrando Donald Trump a confrontar a polícia, ganharam força online, e o Comité Nacional Republicano colocou no ar um anúncio totalmente gerado por IA, prevendo catástrofes se Biden fosse reeleito.
Outro viral deep fake envolve o governador da Flórida e candidato republicano, Ron DeSantis, que divulgou imagens alteradas mostrando o ex-presidente Donald Trump numa abraço com o Dr. Anthony Fauci.
X (na altura Twitter) adicionou uma etiqueta ao Tweet original, rotulando-o como manipulado por IA.
Donald Trump tornou-se um nome conhecido ao DESPEDIR inúmeras pessoas *na televisão*
Mas quando se trata de Fauci... pic.twitter.com/7Lxwf75NQm
- Sala de Guerra DeSantis 🐊 (@DeSantisWarRoom) 5 de junho de 2023
No Reino Unido, o Primeiro-Ministro Rishi Sunak foi falsificado para o mostrar servir uma cerveja de qualidade inferiorpara grande descontentamento dos utilizadores do X (então Twitter), antes de a autenticidade da imagem ser revelada.
Fora da arena política, as pessoas têm estado enganados por autores de fraudes com falsificações profundas, fazendo-se passar por seus amigos ou familiares.
Várias mulheres e mesmo as raparigas foram objeto de uma falsa "sextorsão" - em que os burlões os chantageiam com imagens falsas e com palavrões - algo para que o FBI alertou no início do ano.
Clones de voz de Omar al-Bashir, o antigo líder do Sudão, apareceu recentemente no TikTokA guerra civil está a ser travada num país em guerra.
A lista de exemplos é interminável e parece que as falsificações de IA dominam o texto, as imagens, o vídeo e o áudio.
A IA baixa a fasquia da desinformação
As ferramentas melhoradas por IA amplificam as tácticas tradicionais de interferência eleitoral, tanto em termos de qualidade como de escala.
Tal como testemunhámos nas eleições eslovacas, Josh Goldstein, do Centro de Segurança e Tecnologias Emergentes da Universidade de Georgetown, salienta como os actores estrangeiros podem gerar conteúdos convincentes na língua desejada.
Segundo ele, "as imagens e os vídeos gerados por IA podem ser criados muito mais rapidamente do que os verificadores de factos podem analisá-los e desmascará-los".
Há também a possibilidade de explorar a IA para desinformação em massa direccionada. Por exemplo, no ano passado, dois activistas de extrema-direita utilizaram os "robocalls" (chamadas telefónicas robóticas que visam pessoas em massa) para disseminar desinformação eleitoral junto de milhares de eleitores negros.
Os EUA preparam-se para a desinformação eleitoral por IA
Com várias eleições de alto nível previstas para 2024, a influência das campanhas de desinformação alimentadas por IA está prestes a ser exposta a sério.
Em resposta à crescente influência da IA, gigantes tecnológicos como a Google tomaram medidas, como a rotulagem obrigatória de anúncios políticos que utilizam conteúdos melhorados por IA.
Entretanto, o Congresso está a deliberar sobre a regulamentação da IA e a Comissão Eleitoral Federal (FEC) está a contemplar regras para a utilização da IA na publicidade política.
Em resposta às crescentes preocupações sobre o poder enganador da IA, a A FEC propôs regulamentos sobre a utilização de conteúdos falsos profundos com IA em campanhas políticas.
Revelada em 10 de agosto, esta decisão unânime da FEC deu origem a uma consulta pública de 60 dias com peritos, partes interessadas e público em geral.
À medida que as discussões avançavam no FEC, Lisa Gilbert, vice-presidente da Public Citizen, destacou a necessidade de rever como as leis que envolvem "deturpação fraudulenta" podem se cruzar com falsificações profundas de IA.
À medida que nos aproximamos de 2024, os novos modelos de IA da Meta, da OpenAI e de outros criadores de IA estão a equipar as pessoas com a capacidade de gerar conteúdos tremendamente realistas, pelo que este problema não se tornará mais fácil - pelo contrário.