Uma investigação publicada pela Universidade Anglia Ruskin, no Reino Unido, revelou uma procura crescente de CSAM gerados por IA em fóruns da dark web.
Os investigadores Dr. Deanna Davy e Prof. Sam Lundrigan analisaram as conversas destes fóruns ao longo do último ano, descobrindo um padrão preocupante de utilizadores que aprendem e partilham ativamente técnicas para criar esse material utilizando ferramentas de IA.
Descobrimos que muitos dos infractores procuram imagens de crianças para as manipularem e que o desejo de imagens "hardcore", que se multiplicam a partir de imagens "softcore", é regularmente discutido", explica o Dr. Davy numa publicação no blogue.
Isto afasta o equívoco de que as imagens geradas por IA são "sem vítimas", uma vez que as imagens de crianças reais são frequentemente utilizadas como material de origem para estas manipulações de IA.
O estudo também revelou que os membros do fórum se referiam aos criadores de CSAM gerados por IA como "artistas", tendo alguns manifestado a esperança de que a tecnologia evoluísse para tornar o processo ainda mais fácil do que é atualmente.
Este tipo de comportamento criminoso tornou-se normalizado no seio destas comunidades em linha.
O Prof. Lundrigan acrescentou: "As conversas que analisámos mostram que, através da proliferação de conselhos e orientações sobre como utilizar a IA desta forma, este tipo de material de abuso de crianças está a aumentar e os crimes estão a aumentar. Isto contribui para a crescente ameaça global do abuso de crianças em linha, sob todas as formas, e deve ser visto como uma área crítica a abordar na nossa resposta a este tipo de crime".
Homem detido por produção ilícita de imagens de IA
Num caso relacionado No mesmo dia, a Polícia da Grande Manchester (GMP) anunciou recentemente o que descreve como um "caso histórico" envolvendo a utilização de IA para criar imagens indecentes de crianças.
Hugh Nelson, um homem de 27 anos de Bolton, admitiu ter cometido 11 crimes, incluindo a distribuição e a produção de imagens indecentes, e deverá ser condenado a 25 de setembro.
A Detetive Constable Carly Baines da GMP descreveu o caso como "particularmente único e profundamente horripilante", referindo que Nelson tinha transformado "fotografias normais do dia a dia" de crianças reais em imagens indecentes utilizando tecnologia de IA. "
O caso contra Nelson ilustra mais uma vez os desafios que as autoridades policiais enfrentam ao lidar com esta nova forma de crime digital.
A GMP descreveu-o como um "verdadeiro teste à legislação", uma vez que a utilização da IA desta forma não é especificamente abordada na atual legislação do Reino Unido. DC Baines manifestou a esperança de que este caso "desempenhe um papel importante para influenciar a futura legislação".
As questões relacionadas com imagens ilícitas geradas por IA estão a aumentar
Estes desenvolvimentos surgem na sequência de vários outros casos de grande visibilidade envolvendo CSAM gerados por IA.
Por exemplo, em abril, um homem da Florida foi acusado de alegadamente utilizar a IA para gerar imagens explícitas de uma criança vizinha. No ano passado, um homem da Carolina do Norte psiquiatra infantil foi condenado a 40 anos de prisão por ter criado material abusivo gerado por IA a partir dos seus pacientes infantis.
Mais recentemente, o Departamento de Justiça dos EUA anunciou a detenção de Steven Anderegg, de 42 anos no Wisconsin por alegadamente ter criado mais de 13.000 imagens abusivas de crianças geradas por IA.
A resolução destes problemas é uma grande prioridade para a indústria da IA, tendo sido apresentadas várias estratégias, tais como:
- Atualização da legislação para abordar especificamente o CSAM gerado pela IA.
- Reforçar a colaboração entre empresas de tecnologia, autoridades policiais e organizações de proteção da criança.
- Desenvolvimento de ferramentas de deteção de IA mais sofisticadas para identificar e eliminar CSAM gerados por IA.
- Aumentar a sensibilização do público para os danos causados por todas as formas de CSAM, incluindo os conteúdos gerados por IA.
- Proporcionar melhor apoio e recursos às vítimas de abusos, incluindo as afectadas pela manipulação das suas imagens pela IA.
- Implementar processos de verificação mais rigorosos para os conjuntos de dados de treino de IA, a fim de evitar a inclusão de CSAM.
Até à data, estas medidas revelaram-se ineficazes.
Para catalisar uma melhoria definitiva, será necessário abordar tanto a forma como as imagens abusivas geradas por IA podem passar despercebidas do radar técnico, ocupando uma zona cinzenta na legislação, como a forma como podem ser manipuladas.