A polícia australiana iniciou uma investigação sobre a distribuição de imagens pornográficas geradas por inteligência artificial de cerca de 50 raparigas, sendo o autor do crime um rapaz adolescente.
Em entrevista à ABC na quarta-feira, Emily, a mãe de uma rapariga de 16 anos que frequenta a Bacchus Marsh Grammar, revelou que a filha ficou fisicamente doente depois de ver as imagens "mutiladas" na Internet.
"Fui buscar a minha filha a uma festa do pijama e ela estava extremamente perturbada, a vomitar porque as imagens eram incrivelmente gráficas", explicou à ABC Radio Melbourne.
A escola emitiu um comunicado declarando o seu empenho no bem-estar dos estudantes, referindo que está a oferecer aconselhamento e a cooperar com a polícia.
"O bem-estar dos nossos alunos e das suas famílias em Bacchus Marsh Grammar é uma prioridade máxima e está a ser ativamente abordado", afirma o escola declarada.
Isto acontece numa altura em que o governo australiano está a pressionar no sentido de leis mais rigorosas para as falsificações profundas explícitas não consensuais, aumentando as penas de prisão para a geração e partilha de CSAM, geradas por IA ou não, para até sete anos.
Falsificações explícitas e profundas estão a aumentar
Os especialistas afirmam que os predadores online que frequentam a dark web estão a utilizar cada vez mais ferramentas de IA - especificamente geradores de texto para imagem como o Stability AI - para gerar novos CSAM.
É preocupante o facto de estes criadores de CSAM se fixarem, por vezes, em sobreviventes de abusos de crianças cujas imagens circulam online. Grupos de segurança infantil referem ter encontrado inúmeras discussões em salas de conversação sobre a utilização de IA para criar mais conteúdos que retratam "estrelas" menores de idade específicas, populares nestas comunidades abusivas.
A IA permite que as pessoas criem novas imagens explícitas para revitimizar e retraumatizar os sobreviventes.
"O meu corpo nunca mais será meu e isso é algo com que muitos sobreviventes têm de lidar", Leah Juliett, uma ativista e sobrevivente de CSAM, recentemente disse ao Guardian.
Um outubro de 2023 relatório da Internet Watch Foundation, sediada no Reino Unido revelou o âmbito do CSAM gerado por IA. O relatório encontrou mais de 20.000 imagens deste tipo publicadas num único fórum da dark web durante um mês.
As imagens são muitas vezes indecifráveis das fotografias autênticas, apresentando conteúdos profundamente perturbadores como a simulação de violação de bebés e crianças pequenas.
No ano passado, um Relatório da Universidade de Stanford revelou que centenas de imagens reais de CSAM foram incluídas na base de dados LAION-5B utilizada para treinar ferramentas populares de IA. Quando a base de dados foi tornada pública, os especialistas dizem que a criação de CSAM gerados por IA explodiu.
As detenções recentes demonstram que a questão não é teórica e que as forças policiais de todo o mundo estão a tomar medidas. Por exemplo, em abril, um Um homem da Florida foi acusado por alegadamente ter utilizado a IA para gerar imagens explícitas de uma criança vizinha.
No ano passado, um homem da Carolina do Norte - um pedopsiquiatra, entre todas as pessoas - foi condenado a 40 anos de prisão por criar pornografia infantil gerada por IA a partir dos seus pacientes.
E há poucas semanas, o Departamento de Justiça dos EUA anunciou a detenção de Steven Anderegg, de 42 anos no Wisconsin por alegadamente ter criado mais de 13.000 imagens abusivas de crianças geradas por IA.
As leis actuais não são suficientes, dizem os legisladores e os defensores
Embora a maioria dos países já tenha leis que criminalizam o CSAM gerado por computador, os legisladores querem reforçar os regulamentos.
Por exemplo, nos EUA, um projeto de lei bipartidário foi introduzido para permitir que as vítimas processem os criadores de "deep fakes" explícitos e não consensuais.
No entanto, há ainda algumas áreas cinzentas por resolver, onde é difícil determinar com precisão que leis essas actividades violam.
Por exemplo, em Espanha, um jovem estudante foi encontrado a divulgar imagens explícitas de membros de classe gerados com IA. Alguns argumentaram que isto se enquadraria nas leis da pedofilia, levando a acusações mais severas, enquanto outros disseram que não poderia cumprir esse critério ao abrigo da lei atual.
Um incidente semelhante ocorreu numa escola em Nova Jerseyque mostra como as crianças podem estar a utilizar estas ferramentas de IA de forma ingénua e a expor-se a riscos extremos.
As empresas tecnológicas responsáveis pelos geradores de imagens com IA proíbem a utilização das suas ferramentas para criar conteúdos ilegais. No entanto, muitos modelos poderosos de IA são de código aberto e podem ser executados em privado offline, pelo que a caixa não pode ser completamente fechada.
Além disso, grande parte da atividade criminosa passou também para plataformas de mensagens encriptadas, tornando a deteção ainda mais difícil.
Se a IA abriu a caixa de Pandora, este é certamente um dos perigos que se encontram no seu interior.