Uma investigação da BBC descobriu que os pedófilos estão a explorar a tecnologia de IA para gerar e distribuir imagens realistas de abuso sexual de crianças.
Estas imagens ilícitas geradas por IA são normalmente acedidas através de sites de partilha de conteúdos como o Patreon. O Conselho Nacional dos Chefes de Polícia (CNPC) manifestou a sua indignação, sublinhando o facto "escandaloso" de algumas plataformas não assumirem "responsabilidade moral", apesar de obterem lucros substanciais.
O GCHQ, a agência de informações e cibersegurança do governo britânico, reagiu ao relatório afirmando: "Os autores de abusos sexuais de crianças adoptam todas as tecnologias e alguns acreditam que o futuro do material de abuso sexual de crianças reside em conteúdos gerados por IA".
As pessoas utilizam a Stable Diffusion, uma IA de geração de imagens de código aberto, para gerar as imagens. O Stable Diffusion permite aos utilizadores introduzir palavras que descrevem a imagem pretendida.
Uma versão do Stable Diffusion é de código aberto ao abrigo da licença Apache 2.0, ao contrário do Mid Journey e do DALL-E, que impedem os utilizadores de utilizar os prompts para gerar imagens gráficas ou ilícitas. Isto dá aos criadores liberdade para criarem quase todas as imagens que quiserem.
A BBC descobriu casos em que a Stable Diffusion foi utilizada para criar representações hiper-realistas de abusos sexuais de crianças. As forças policiais do Reino Unido confirmaram que já tiveram contacto com material ilegal gerado por IA.
A investigadora e jornalista independente Octavia Sheepshanks, que investigou o casoA investigadora, que tem uma vasta experiência em pedofilia, partilhou as suas descobertas com a BBC através da instituição de caridade para crianças NSPCC. "Desde que as imagens geradas por IA se tornaram possíveis, houve uma enorme inundação... não se trata apenas de raparigas muito jovens, eles [os pedófilos] falam de crianças pequenas", observou.
Num outro caso, os utilizadores aproveitaram uma plataforma de pornografia em RV para criar avatares de mulheres menores de idade. Um utilizador terá tirado uma fotografia de uma rapariga menor de idade real e sobrepô-la a uma das modelos.
A lei britânica trata as "pseudo-imagens" geradas por computador que retratam o abuso sexual de crianças como se fossem imagens reais, pelo que a sua posse, publicação ou transferência é ilegal.
Ian Critchley, responsável pela proteção das crianças da NSPCC, afirmou que, apesar de as imagens "sintéticas" não representarem crianças reais, podem causar danos reais. Alertou para uma potencial escalada das acções dos criminosos "do pensamento, para o sintético, para o abuso de uma criança viva".
Como é que os pedófilos criavam e distribuíam as imagens?
De acordo com o inquérito, o processo de distribuição de imagens envolve 3 etapas:
- Os pedófilos geram imagens utilizando software de IA.
- Estas imagens são promovidas em plataformas como o Pixiv, um sítio japonês de partilha de imagens.
- Nestas plataformas, são fornecidas ligações que direccionam os clientes para imagens mais explícitas, às quais podem aceder mediante pagamento em sítios como o Patreon.
Muitos criadores de imagens estavam activos no Pixiv, utilizado principalmente por artistas de manga e anime.
No entanto, a plataforma está alojada no Japão, onde a partilha de desenhos animados sexualizados de menores não é ilegal, permitindo aos criadores promover o seu trabalho através de grupos e hashtags.
A Pixiv proibiu todas as representações foto-realistas de conteúdos sexuais envolvendo menores a partir de 31 de maio. Declararam também que tinham reforçado os seus sistemas de controlo e que estavam a dedicar mais recursos para combater este tipo de conteúdos.
Sheepshanks disse à BBC que o problema envolve "distribuição à escala industrial". Além disso, os comentários no Pixiv indicam que alguns estão a oferecer material de abuso não gerado por IA.
Muitas contas Pixiv fornecem links para o seu "conteúdo não censurado" alojado no Patreon, uma plataforma de partilha de conteúdos sediada nos EUA, avaliada em cerca de $4bn (£3.1bn).
O Patreon tem mais de 250 000 criadores, incluindo celebridades, jornalistas e escritores de renome. A investigação descobriu contas do Patreon que vendiam abertamente imagens obscenas de crianças geradas por IA, com preços que variavam consoante o tipo de material.
A IA de estabilidade e o Patreon reagem
Uma vez mostrado um exemplo, o Patreon confirmou que violava as suas políticas e a conta foi imediatamente removida.
O Stable Diffusion, o gerador de imagens de IA utilizado na criação destas imagens, foi desenvolvido através de uma colaboração global que envolveu académicos e empresas lideradas pela Stability AI, sediada no Reino Unido. Como mencionado, a versão de código aberto do software não tem filtros, permitindo a produção de qualquer imagem.
A Stability AI respondeu reforçando a sua proibição contra a utilização indevida do seu software para fins ilegais ou imorais, incluindo material de abuso sexual de crianças (CSAM).
Declararam apoiar firmemente os esforços de aplicação da lei para combater a utilização ilegal dos seus produtos.
Ian Critchley, do NPCC, manifestou a preocupação de que o afluxo de imagens geradas por IA ou "sintéticas" possa dificultar o processo de identificação das vítimas reais de abuso. Ele disse: "Isso cria uma demanda adicional, em termos de policiamento e aplicação da lei, para identificar onde uma criança real, onde quer que esteja no mundo, está sendo abusada, em oposição a uma criança artificial ou sintética".
Critchley acrescentou que a sociedade chegou a um "momento crucial" para determinar se a Internet e a tecnologia vão permitir oportunidades ou tornar-se uma fonte de maiores danos.
A NSPCC fez eco destes sentimentos, instando as empresas tecnológicas a tomar medidas contra a velocidade alarmante com que os abusadores adoptaram as tecnologias emergentes.
Anna Edmundson, directora de política e assuntos públicos da instituição de caridade, argumentou que as empresas estavam cientes destes riscos potenciais, mas não tomaram medidas substanciais, sublinhando que não pode haver "mais desculpas para a inação".
O projeto de lei sobre a segurança em linha exigirá que as empresas tomem medidas proactivas para combater todas as formas de abuso sexual de crianças em linha, incluindo aliciamento, transmissão em direto, material de abuso sexual de crianças e imagens proibidas de crianças, sob pena de serem sujeitas a multas pesadas", afirmou um porta-voz do Governo.
O Reino Unido Projeto de lei sobre segurança em linha foi redigido antes de a IA generativa se ter tornado "mainstream", mas continua a ter como objetivo controlar os casos de danos relacionados com a IA em linha.
Intensificam-se as preocupações com as falsificações profundas
Este facto chama ainda mais a atenção para o papel da IA no engano e na cibercriminalidade. O aparecimento de deep fakes, imagens, vídeos ou áudios ultra-realistas gerados por IA, suscitou uma série de preocupações éticas e de segurança.
As falsificações profundas utilizam algoritmos de IA para extrair padrões de movimentos faciais, modulações de voz e linguagem corporal de conteúdos de áudio ou vídeo existentes. Utilizando a sua análise, a IA pode criar contrafacções altamente convincentes que são quase impossíveis de distinguir das verdadeiras.
Além disso, o abuso de crianças gerado pela IA irá provavelmente desafiar a legislação existente em todo o mundo. Embora as imagens ilícitas de crianças geradas por IA sejam legalmente tratadas da mesma forma que as imagens reais no Reino Unido, tal pode não ser o caso noutros países.
Os legisladores estão a ter dificuldade em acompanhar a IA, que é muito mais ágil do que os processos legislativos complexos.
Entretanto, os autores de fraudes e os criminosos estão a esbater as linhas entre o que é real e o que não é, explorando as lacunas da lei.
O primeiro caso de fraude apoiada por IA com grande visibilidade ocorridas em 2019 quando os burlões utilizaram a IA para se fazerem passar pela voz de um CEO e convencerem um executivo sénior a transferir 220 000 euros ($243 000), alegando que se tratava de um pagamento urgente a um fornecedor. O executivo acreditava que estava a falar com o CEO, mas na realidade estava a interagir com um falso profundo.
No início deste ano, uma imagem falsa de um explosão no Pentágono circulou nas redes sociais, provocando uma queda temporária de 0,3% na bolsa de valores dos EUA.
Muitos receiam que a IA seja utilizada para criar notícias falsas ou conteúdos difamatórios sobre figuras políticas. Os políticos já estão a utilizar a IA para conteúdos para reforçar as suas campanhas.
Além disso, tem havido um aumento da pornografia falsa profunda não consentida, em que os rostos dos indivíduos são sobrepostos a imagens ou vídeos explícitos sem consentimento.
O O FBI avisou sobre a sextorsão por IA no início de junho, afirmando que "os agentes maliciosos utilizam tecnologias e serviços de manipulação de conteúdos para explorar fotografias e vídeos - normalmente capturados da conta de uma pessoa nas redes sociais, da Internet aberta ou solicitados à vítima - em imagens de temática sexual que parecem reais e semelhantes às da vítima, fazendo-as depois circular nas redes sociais, em fóruns públicos ou em sítios Web pornográficos. Muitas vítimas, incluindo menores, não têm conhecimento de que as suas imagens foram copiadas, manipuladas e postas a circular até alguém lhes chamar a atenção para o facto."
Um documentário britânico, A minha namorada loiraO livro "A história da pornografia de vingança" explora um caso real de pornografia de vingança falsa que afectou a vida da escritora Helen Mort.
Empresas de tecnologia como a Google, o Twitter e o Facebook estão a desenvolver ferramentas de deteção para identificar conteúdos profundamente falsos, mas à medida que a IA se torna mais sofisticada, esses mecanismos podem tornar-se menos fiáveis.
Embora estejam a ser feitos progressos, os indivíduos, as empresas e a sociedade em geral devem manter-se informados sobre os potenciais riscos da tecnologia de falsificação profunda, que tem sido apontada como um dos riscos mais iminentes e prementes da IA.