Os motores de busca Google e Bing apresentam facilmente pornografia falsa profunda

12 de janeiro de 2024

falsificações profundas

Numa investigação levada a cabo pela NBC News, foi revelado que motores de busca populares como o Google e o Bing da Microsoft estão inadvertidamente a promover pornografia falsa profunda não consentida. 

Tecnologia de falsificação profunda, que se tornou um termo abrangente para qualquer aplicação de IA que possa gerar vídeo, imagens e áudio extremamente realistas.

Tem sido cada vez mais utilizado para criar material pornográfico sem consentimento, visando frequentemente celebridades femininas.

NBC News conduziu pesquisas de 36 celebridades femininas populares juntamente com o termo "deepfakes" no Google e no Bing. As conclusões foram alarmantes: O Google apresentou imagens deepfakes não consensuais nos principais resultados de 34 dessas pesquisas, enquanto o Bing o fez em 35. 

Além disso, estes resultados de pesquisa incluíam frequentemente ligações a sítios Web conhecidos por distribuírem esse tipo de conteúdos "deepfake". 

A situação é agravada pelo facto de a pesquisa de termos como "nus falsos" nestas plataformas conduzir a inúmeras ligações para criar e visualizar pornografia falsa profunda não consensual.

Peritos jurídicos, defensores e vítimas desta tecnologia manifestaram sérias preocupações. 

A pornografia deep fake não consensual não só viola a privacidade como também contribui para a objectificação sexual e o assédio das mulheres. Nalguns casos, as falsificações profundas estendem-se ao abuso sexual de crianças, que tem origem em imagens ilícitas contidas em imagens populares bases de dados de formação como o LAION.

Atualmente, tem havido poucos esforços sistemáticos por parte da Google para identificar e remover estes materiais, e isso pode não ser realisticamente possível a qualquer escala.

Um porta-voz da Google declarou: "Compreendemos o quão angustiante este conteúdo pode ser para as pessoas afectadas por ele, e estamos a trabalhar ativamente para trazer mais protecções para a Pesquisa".

Sublinharam que os algoritmos de pesquisa da Google foram concebidos para evitar a apresentação inesperada de conteúdos nocivos ou explícitos.

A Microsoft, por outro lado, tem uma política contra imagens íntimas não consensuais (NCII) e inclui deepfakes sexualmente explícitos nesta categoria. As vítimas podem denunciar este tipo de conteúdo que aparece nos resultados de pesquisa do Bing. 

Um porta-voz da Microsoft comentou: "A distribuição de imagens íntimas não consensuais é uma violação grosseira da privacidade e da dignidade pessoal com efeitos devastadores para as vítimas".

As falsificações profundas são um aspeto complexo da IA, oferecendo um meio para os actores maliciosos manipular os resultados eleitorais, criar polémica no meio de acontecimentos como a guerra israelo-palestiniana, e instigar fraudes

Isto representa um problema intratável, uma vez que, eventualmente, a IA se tornará virtualmente impossível de distinguir as falsificações profundas dos media reais ao nível dos píxeis. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições