O diretor desportivo de uma escola secundária de Baltimore foi detido na quinta-feira, depois de a polícia ter alegadamente utilizado a IA para criar um falso clip de áudio do diretor da escola.
Em janeiro, relatámos sobre o clip de áudio que supostamente seria uma gravação do diretor do liceu de Pikesville, Eric Eiswert, a fazer comentários racistas e anti-semitas sobre funcionários e alunos.
Na altura, Eiswert negou a autenticidade do áudio e foi afirmado que o clip era uma falsificação da IA.
O clipe áudio amplamente partilhado levou Eiswert a perder temporariamente o emprego enquanto se investigava a autenticidade do áudio. A reação negativa de professores, alunos e outras pessoas da comunidade que acreditavam que o clip era genuíno, mudou a vida de Eiswert.
Se ouvirmos o clip áudio, é fácil perceber porque é que as pessoas acreditaram que era genuíno.
Ver esta publicação no Instagram
Os especialistas concluíram agora que o áudio era uma falsificação da IA com base no tom plano do áudio, na falta de sons de respiração ou pausas consistentes e em sons de fundo invulgarmente limpos.
Alegadamente, Dazhon Darien, o antigo diretor desportivo do liceu de Pikesville, falsificou o IA como retaliação pelo facto de Eiswert ter iniciado uma investigação sobre a sua utilização indevida de fundos escolares.
Dazhon Darien foi detido e acusado de perturbação do funcionamento da escola, roubo, retaliação contra uma testemunha e perseguição. A folha de acusação refere que Darien utilizou os computadores da escola "para aceder a OpenAI e os serviços do Microsoft Bing Chat".
Na lista de acusações não constava algo que em breve poderá ser crime: utilizar a IA para falsificar a voz de alguém.
Projectos de lei como o Lei contra as falsificações e a lei "No AI Fraud Act" foram apresentadas no US Congresso, mas ainda não foram aprovadas. Assim, quando a Darien utilizou a IA para criar um clip de áudio falso não consensual da voz de Eiswert, tecnicamente não se tratou de um crime.
O facto de terem sido necessárias semanas para que um perito acabasse por confirmar que o clipe de áudio era falso mostra até que ponto a sociedade e as autoridades não estão preparadas para lidar com as novas questões que a IA generativa apresenta.
A facilidade com que estas falsificações podem ser geradas agrava o problema. Se um professor de ginástica consegue criar uma falsificação aceitável, imagine-se o que os maus actores tecnicamente mais competentes podem conseguir.
Na ausência de uma forma fácil de identificar áudio e vídeo falsos, a nossa melhor defesa pode ser assumir que as coisas são falsas até serem confirmadas como reais.