As imagens falsas de abusos sexuais de crianças estão a aumentar, diz novo relatório

25 de outubro de 2023

dark web ai

A inteligência artificial está a ser explorada para criar imagens de abuso sexual de crianças a um ritmo alarmante, o que faz temer uma ameaça avassaladora à segurança na Internet, alerta a Internet Watch Foundation (IWF). 

O organismo de controlo com sede no Reino Unido identificou cerca de 3000 imagens geradas por IA que violam a legislação britânica.

O A IWF comunicou que os modelos de IA estão a ser alimentados com imagens de vítimas reais de abuso, gerando novos conteúdos abusivos. Além disso, a tecnologia está a ser utilizada para produzir imagens de celebridades menores de idade em cenários abusivos e "nudificar" fotografias de crianças vestidas encontradas em linha.

Existem numerosos casos internacionais de abuso de crianças profundamente falsos, incluindo um caso recente em que várias alunas espanholas foram alvo de imagens sexualizadas geradas por IA. Em junho, jornalistas do A BBC expôs imagens pedófilas de IA que circulam em plataformas como o Patreon.

Susie Hargreaves, directora executiva da IWF, afirmou que os "piores pesadelos se tornaram realidade", sublinhando a aceleração da tecnologia de IA para fins maliciosos.

A fundação já tinha salientado a ameaça emergente durante o verão e confirma agora um aumento significativo da incidência de material de abuso sexual de crianças gerado por IA (CSAM).

Durante a investigação de um mês, a pesquisa num fórum de abuso de crianças na Internet obscura revelou que 2.978 das 11.108 imagens violavam a legislação britânica. 20% dos conteúdos foram classificados como a forma mais grave de conteúdo abusivo.

Dan Sexton, Diretor de Tecnologia da IWF, salientou que o Stable Diffusion, um modelo de IA de código aberto amplamente disponível, foi a principal ferramenta discutida no fórum para a criação do CSAM.

Sendo um modelo de código aberto, o Stable Diffusion não vem necessariamente com as mesmas protecções que os modelos comerciais de geração de imagens, como o DALL-E 3.

Abordar a exploração de conteúdos gerados por IA nas redes sociais

As plataformas das redes sociais tornaram-se focos de conteúdos sexualmente explícitos e exploradores gerados por IA. 

Plataformas populares das redes sociais, como o Facebook, o Instagram e o TikTok, estão a ser analisadas por alojarem anúncios que sexualizam avatares de IA e promover aplicações orientadas para os adultos. 

Os anúncios são explícitos e envolvem a sexualização de figuras infantis, explorando lacunas nos sistemas de moderação de conteúdos. 

Apesar dos esforços do Meta e do TikTok para eliminar estes anúncios, a natureza dos conteúdos gerados por IA escapa frequentemente aos filtros automáticos. A inconsistência das classificações etárias destas aplicações, juntamente com a sua disponibilidade global, complica ainda mais a questão.

À medida que os algoritmos de IA se tornam mais sofisticados, a criação de imagens, vídeos e áudio ultra-realistas representa uma ameaça significativa para os indivíduos, as empresas e a sociedade em geral. 

O FBI avisos sobre sextorção de IA no início do ano, em especial envolvendo menores, realçaram a urgência de abordar esta questão. A situação parece estar a acelerar. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições