As vozes falsas clonadas por IA foram recentemente notícia devido a uma chamada automática de "Biden", mas as pessoas comuns estão a ser afectadas à medida que a tecnologia se torna mais acessível e mais difícil de detetar.
Há duas semanas, foi divulgada uma gravação áudio do diretor do liceu de Pikesville, Eric Eiswert, na qual parecia que Eiswert tinha feito comentários racistas e anti-semitas sobre funcionários e alunos.
Eiswert negou a autenticidade do áudio, uma posição apoiada por Billy Burke, diretor executivo do Council of Administrative and Supervisory Employees, que representa os administradores do condado de Baltimore.
"Acreditamos que é gerado por IA", disse Burke. "Ele não disse isso."
Na era das falsificações de IA, a "dividendo do mentiroso" dá a qualquer pessoa uma saída fácil para gritar "Falso!" quando se encontra numa situação difícil. Ao mesmo tempo, a clonagem de voz por IA pode causar muitos danos à reputação de pessoas comuns como Eiswert.
O que é que acha? Falsa ou verdadeira?
Ver esta publicação no Instagram
Ou o áudio é genuíno e ele devia ser despedido, ou é uma falsificação de IA e alguém devia ser processado.
Duas semanas depois, ninguém sabe dizer, pelo que o emprego e a reputação de Eiswert continuam no limbo. É uma prova da qualidade das ferramentas de clonagem de voz e das questões complexas que a tecnologia levanta.
Há um ano, poderíamos ter rejeitado a afirmação de Eiswert sobre a falsificação de IA, argumentando que não existia uma tecnologia de IA tão avançada. Atualmente, empresas como a Eleven Labs ou ferramentas baratas como a Parrot AI facilitam a criação de clones de voz impressionantes.
O OpenVoice, lançado no início deste mês, utiliza apenas alguns segundos de áudio para clonar uma voz e permite um controlo granular da emoção, do sotaque, do tom, do ritmo e muito mais.
Atualmente, é com orgulho que abrimos o código-fonte do nosso algoritmo OpenVoice, abraçando o nosso ethos principal - IA para todos.
Experimente agora: https://t.co/zHJpeVpX3t. Clone vozes com uma precisão inigualável, com controlo granular do tom, desde a emoção ao sotaque, ritmo, pausas e entoação, utilizando apenas um... pic.twitter.com/RwmYajpxOt
- MyShell (@myshell_ai) 2 de janeiro de 2024
Hany Farid, professor da Universidade da Califórnia, Berkley, é especialista em forense digital e autenticação de meios digitais. Quando um repórter da WJZ lhe pediu para analisar o clip, Farid disse que era óbvio que tinha sido editado mas, para além disso, não podia confirmar se era autêntico ou não.
Numa entrevista à Scientific American, Farid disse: "Analisei o áudio com algumas das nossas ferramentas, que ainda não estão disponíveis ao público. Penso que é provável - mas não certo - que este áudio seja gerado por IA... No geral, penso que as provas apontam para que este áudio não seja autêntico. Mas antes de tomar uma decisão final, precisamos de saber mais".
Farid disse que havia talvez 5 ou menos laboratórios em todo o mundo que poderiam determinar de forma fiável se o áudio é falso ou genuíno.
O clone de IA que o Dudesy criou George Carlin é um excelente exemplo de como a clonagem de voz por IA está a ficar muito boa na correspondência de inflexão e emoção. Esse vídeo já não está disponível.
As pessoas por detrás dos chatbots mysentient.ai criaram uma paródia Debate Trump vs Biden. As coisas que "Trump" e "Biden" dizem são tão loucas que são obviamente feitas para efeito cómico, mas soam muito bem.
À medida que estas ferramentas se tornam melhores e mais disponíveis, situações como a do diretor de Baltimore vão afetar cada vez mais os políticos e as pessoas comuns.
Se enviou uma mensagem de voz para o WhatsApp ou deixou uma mensagem num serviço de atendimento de chamadas, pode ser o próximo. Ou, se alguém o gravou a dizer algo estranho, pode simplesmente dizer que se trata de uma falsificação da IA. Ninguém parece ser capaz de o provar de qualquer forma.