Um vídeo falso com Kari Lake, criado pela agência noticiosa digital Arizona Agenda, apareceu na Internet.
No vídeo, um lago gerado por IA endossa a Agenda do Arizona, afirmando: "Assine a Agenda do Arizona para obter notícias reais e contundentes".
De seguida, apresenta uma mensagem sobre o papel da IA nas eleições: "E uma antevisão da aterrorizante inteligência artificial que vos espera nas próximas eleições, como este vídeo, que é um deepfake de IA que a Agenda do Arizona fez para vos mostrar o quão boa esta tecnologia está a ficar".
O vídeo enganou até Hank Stephenson, cofundador e jornalista da Arizona Agenda, que admitiu: "Quando começámos a fazer isto, pensei que ia ser tão mau que não ia enganar ninguém, mas fiquei espantado".
O vídeo, embora talvez benigno na sua intenção, teve um tiro pela culatra espetacular. A equipa de Lakes respondeu com uma carta de cessação e desistência, exigindo que os vídeos fossem imediatamente removidos de todas as plataformas. Avisaram que o incumprimento daria origem a uma ação judicial.
Apesar desta pressão legal, Stephenson revelou que consultou advogados sobre a forma de responder. Ele acredita que essas falsificações profundas são ferramentas de aprendizagem vitais, afirmando: "Lutar contra essa nova onda de desinformação tecnológica neste ciclo eleitoral é responsabilidade de todos nós".
Pode ver o vídeo abaixo. A descrição diz: "Este é um vídeo profundamente falso de Kari Lake. NÃO é real e foi criado sem a autorização da Sra. Lake. A Sra. Lake não apoia a nossa publicação de forma alguma".
Um comentário justo? Possivelmente, mas criar falsificações profundas auto-promocionais de pessoas sem a sua autorização não é uma boa maneira de o fazer.
Como disse um comentador no Reddit, "não interessa quem é - os deepfakes feitos para enganar as pessoas em termos de política são perigosos e errados".
A questão vai para além dos casos individuais, como se vê na arena política mais alargada. O próprio Donald Trump já acusou anteriormente os seus opositores de utilizarem Conteúdos gerados por IA contra elemostrando como as falsificações profundas são tanto uma arma como uma vulnerabilidade.
Utilização abusiva da IA nas eleições é uma tendência internacional, que atinge países como a Eslováquia e a Indonésia. As tácticas digitais para influenciar os resultados políticos através do engano tornaram-se mais diversificadas e realistas.
Regulamentos, incluindo o Comissão Federal das Comunicações (FTC) proibindo certas chamadas automáticas geradas por IA e formando um grupo de trabalho bipartidário para explorar a regulamentação da IA, indicam passos no sentido de abordar as falsificações profundas.
No entanto, com a tecnologia de IA a avançar rapidamente, a FEC ainda não estabeleceu regras que regulem a IA nos anúncios políticos.
A IA está a avançar mais rapidamente do que os legisladores e a próxima controvérsia está provavelmente iminente.