O Conselho de Supervisão é um órgão independente de especialistas criado pela Meta em 2020 para analisar as decisões de moderação de conteúdos mais difíceis da empresa no Facebook, Instagram e Threads.
A Comissão Europeia anunciou na terça-feira que vai rever a forma como a Meta tratou dois casos que envolviam imagens sexualmente explícitas geradas por inteligência artificial que retratavam figuras públicas femininas.
O conselho tem 20 membros em todo o mundo, incluindo advogados, defensores dos direitos humanos, jornalistas e académicos.
Funciona independentemente do Meta, com o seu próprio pessoal e orçamento, e pode tomar decisões vinculativas sobre conteúdos que o Meta tem de implementar, exceto se isso violar a lei.
O conselho de administração pode também emitir recomendações políticas não vinculativas para a Meta.
Num publicação no blogueO Conselho de Supervisão declarou: "Hoje, o Conselho de Supervisão está a anunciar dois novos casos para apreciação. Neste contexto, estamos a convidar pessoas e organizações a apresentarem comentários públicos."
O primeiro caso envolve uma imagem explícita gerada por IA publicada no Instagram, concebida para retratar uma figura pública da Índia.
De acordo com o Conselho de Administração, "a imagem foi criada utilizando inteligência artificial (IA) para se assemelhar a uma figura pública da Índia. A conta que publicou este conteúdo apenas partilha imagens geradas por IA de mulheres indianas. A maioria dos utilizadores que reagiram têm contas na Índia, onde os deepfakes estão a tornar-se cada vez mais um problema".
O segundo caso diz respeito a uma imagem publicada num grupo do Facebook dedicado a criações de IA, que mostra uma mulher nua gerada por IA semelhante a uma figura pública americana a ser apalpada por um homem.
O Oversight Board observou: "Apresenta uma imagem gerada por IA de uma mulher nua com um homem a apalpar-lhe o peito. A imagem foi criada com IA para se assemelhar a uma figura pública americana, que também é mencionada na legenda. A maioria dos utilizadores que reagiram têm contas nos Estados Unidos".
Inicialmente, o Meta permitiu que a imagem da figura pública indiana permanecesse no Instagram, mas mais tarde retirou-a por violar a norma comunitária relativa à intimidação e ao assédio, depois de o Conselho de Supervisão ter selecionado o caso para análise.
O Meta removeu a imagem da figura pública americana por violar a mesma política, especificamente a cláusula que proíbe "photoshop ou desenhos sexualizados depreciativos".
O Conselho de Supervisão declarou que "seleccionou estes casos para avaliar se as políticas do Meta e as suas práticas de aplicação são eficazes no tratamento de imagens explícitas geradas por IA. Este caso está em conformidade com a prioridade estratégica do Conselho de Supervisão em matéria de género".
Como parte do seu processo de análise, o Conselho de Supervisão está a solicitar comentários públicos sobre vários aspectos dos casos, incluindo "a natureza e a gravidade dos danos causados pela pornografia falsa e profunda", "informações contextuais sobre a utilização e a prevalência da pornografia falsa e profunda a nível mundial" e "estratégias para a forma como a Meta pode abordar a pornografia falsa e profunda nas suas plataformas".
O período de comentários do público permanecerá aberto durante 14 dias, encerrando a 30 de abril. O Conselho de Supervisão deliberará então sobre os casos e emitirá as suas decisões, que serão vinculativas para a Meta. Quaisquer recomendações políticas feitas pelo Conselho de Supervisão não serão vinculativas, mas a Meta deve responder-lhes no prazo de 60 dias.
O anúncio do Oversight Board surge no meio de preocupações crescentes sobre a proliferação de pornografia falsa e não consensual dirigida às mulheres, em particular às celebridades.
Taylor Swift foi a alvo mais prolíficocom imagens explícitas da cantora geradas por IA, desencadeando uma caça digital ao criminoso.
Em resposta à ameaça crescente da pornografia falsa e profunda, os legisladores introduziram a Ato de DEFIANÇA em janeiroque permitiria às vítimas de falsificações profundas não consentidas intentar uma ação judicial se pudessem provar que o conteúdo foi criado sem o seu consentimento.
A congressista Alexandria Ocasio-Cortez, que patrocinou o projeto de lei e foi ela própria alvo de pornografia falsa, enfatizou a necessidade de o Congresso agir para apoiar as vítimas à medida que as falsificações profundas se tornam mais acessíveis.