O Conselho de Supervisão do Meta avalia o tratamento dado às falsificações explícitas do Deep

18 de abril de 2024
  • O Conselho de Supervisão da Meta criticou a forma como a plataforma lidou com as falsificações profundas
  • Duas mulheres foram implicadas em falsificações profundas que não foram moderadas
  • Pediram ao público que desse a sua opinião sobre o incidente
IA Meta

O Conselho de Supervisão é um órgão independente de especialistas criado pela Meta em 2020 para analisar as decisões de moderação de conteúdos mais difíceis da empresa no Facebook, Instagram e Threads. 

A Comissão Europeia anunciou na terça-feira que vai rever a forma como a Meta tratou dois casos que envolviam imagens sexualmente explícitas geradas por inteligência artificial que retratavam figuras públicas femininas.

O conselho tem 20 membros em todo o mundo, incluindo advogados, defensores dos direitos humanos, jornalistas e académicos.

Funciona independentemente do Meta, com o seu próprio pessoal e orçamento, e pode tomar decisões vinculativas sobre conteúdos que o Meta tem de implementar, exceto se isso violar a lei. 

O conselho de administração pode também emitir recomendações políticas não vinculativas para a Meta.

Num publicação no blogueO Conselho de Supervisão declarou: "Hoje, o Conselho de Supervisão está a anunciar dois novos casos para apreciação. Neste contexto, estamos a convidar pessoas e organizações a apresentarem comentários públicos."

O primeiro caso envolve uma imagem explícita gerada por IA publicada no Instagram, concebida para retratar uma figura pública da Índia. 

De acordo com o Conselho de Administração, "a imagem foi criada utilizando inteligência artificial (IA) para se assemelhar a uma figura pública da Índia. A conta que publicou este conteúdo apenas partilha imagens geradas por IA de mulheres indianas. A maioria dos utilizadores que reagiram têm contas na Índia, onde os deepfakes estão a tornar-se cada vez mais um problema".

O segundo caso diz respeito a uma imagem publicada num grupo do Facebook dedicado a criações de IA, que mostra uma mulher nua gerada por IA semelhante a uma figura pública americana a ser apalpada por um homem. 

O Oversight Board observou: "Apresenta uma imagem gerada por IA de uma mulher nua com um homem a apalpar-lhe o peito. A imagem foi criada com IA para se assemelhar a uma figura pública americana, que também é mencionada na legenda. A maioria dos utilizadores que reagiram têm contas nos Estados Unidos".

Inicialmente, o Meta permitiu que a imagem da figura pública indiana permanecesse no Instagram, mas mais tarde retirou-a por violar a norma comunitária relativa à intimidação e ao assédio, depois de o Conselho de Supervisão ter selecionado o caso para análise. 

O Meta removeu a imagem da figura pública americana por violar a mesma política, especificamente a cláusula que proíbe "photoshop ou desenhos sexualizados depreciativos".

O Conselho de Supervisão declarou que "seleccionou estes casos para avaliar se as políticas do Meta e as suas práticas de aplicação são eficazes no tratamento de imagens explícitas geradas por IA. Este caso está em conformidade com a prioridade estratégica do Conselho de Supervisão em matéria de género".

Como parte do seu processo de análise, o Conselho de Supervisão está a solicitar comentários públicos sobre vários aspectos dos casos, incluindo "a natureza e a gravidade dos danos causados pela pornografia falsa e profunda", "informações contextuais sobre a utilização e a prevalência da pornografia falsa e profunda a nível mundial" e "estratégias para a forma como a Meta pode abordar a pornografia falsa e profunda nas suas plataformas".

O período de comentários do público permanecerá aberto durante 14 dias, encerrando a 30 de abril. O Conselho de Supervisão deliberará então sobre os casos e emitirá as suas decisões, que serão vinculativas para a Meta. Quaisquer recomendações políticas feitas pelo Conselho de Supervisão não serão vinculativas, mas a Meta deve responder-lhes no prazo de 60 dias.

O anúncio do Oversight Board surge no meio de preocupações crescentes sobre a proliferação de pornografia falsa e não consensual dirigida às mulheres, em particular às celebridades. 

Taylor Swift foi a alvo mais prolíficocom imagens explícitas da cantora geradas por IA, desencadeando uma caça digital ao criminoso. 

Em resposta à ameaça crescente da pornografia falsa e profunda, os legisladores introduziram a Ato de DEFIANÇA em janeiroque permitiria às vítimas de falsificações profundas não consentidas intentar uma ação judicial se pudessem provar que o conteúdo foi criado sem o seu consentimento. 

A congressista Alexandria Ocasio-Cortez, que patrocinou o projeto de lei e foi ela própria alvo de pornografia falsa, enfatizou a necessidade de o Congresso agir para apoiar as vítimas à medida que as falsificações profundas se tornam mais acessíveis.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições