A Meta anunciou novas iniciativas para aumentar a transparência relativamente aos conteúdos gerados por IA nas suas plataformas.
Escrever num publicação no blogueNick Clegg, Presidente da Meta para os Assuntos Globais, sublinhou o compromisso da empresa em rotular as imagens geradas por IA para ajudar os utilizadores a discernir entre conteúdo criado por humanos e conteúdo sintético.
Clegg afirmou: "À medida que a diferença entre conteúdo humano e sintético se vai esbatendo, as pessoas querem saber onde está a fronteira". Acrescentou ainda que a Meta tem estado a "trabalhar com parceiros da indústria para alinhar padrões técnicos comuns que sinalizam quando um conteúdo foi criado usando IA".
A Meta está a reconhecer a crescente prevalência de conteúdos fotorrealistas gerados por IA, agora amplamente conhecidos como deep fakes.
Taylor Swift foi a mais recente vítima de um ataque explícito de imagens não consentidas geradas por IAque os utilizadores associaram a um "desafio" no 4Chan.
Uma fraude orquestrada por falsificações de vídeos roubou a uma empresa multinacional $25,6 milhões de euros na segunda-feira.
O ónus da responsabilidade de impedir a difusão destas imagens recai diretamente sobre as empresas de redes sociais como a X e a Meta.
A Meta tem rotulado as imagens fotorrealistas criadas com a sua própria funcionalidade Meta AI como "Imaginadas com IA" e planeia alargar esta prática aos conteúdos gerados pelas ferramentas de outras empresas.
A empresa afirma que está a desenvolver ferramentas capazes de identificar marcadores invisíveis e metadados incorporados em imagens geradas por IA, permitindo-lhe rotular conteúdos de um amplo espetro de fontes, incluindo Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.
A Meta está agora preparada para aplicar estas etiquetas em todas as línguas suportadas nas suas plataformas.
Clegg também destacou a necessidade de colaboração entre a indústria tecnológica, escrevendo: "Uma vez que os conteúdos gerados por IA aparecem em toda a Internet, temos estado a trabalhar com outras empresas da nossa indústria para desenvolver normas comuns para a sua identificação através de fóruns como a Partnership on AI (PAI). Os marcadores invisíveis que utilizamos para as imagens Meta AI - metadados IPTC e marcas de água invisíveis - estão em conformidade com as melhores práticas da PAI."
Apesar dos melhores esforços e dos avanços na luta contra as falsificações profundas, Clegg salientou que a deteção de áudio e vídeo gerados por IA continua a ser um desafio devido à falta de sinais comparáveis.
Mas mesmo quando se trata de imagens falsas, estas podem acumular milhões de impressões antes de serem completamente removidas - como vimos no último incidente com Taylor Swift.
Outros incidentes, como o comentador Ben Shapiro que partilha um provável imagem gerada por IA de um bebé morto do conflito israelo-palestiniano, também atraiu uma enorme atenção mundial antes de ser contrariada.
Como medida provisória, o Meta irá introduzir uma funcionalidade que permite aos utilizadores revelar quando partilham vídeo ou áudio gerados por IA.
Mas quem é que vai usar isso se estiver a publicar conteúdo concebido para gerar controvérsia?
Para além da rotulagem, o Meta está a explorar várias tecnologias para melhorar a sua capacidade de detetar conteúdos gerados por IA, mesmo na ausência de marcadores invisíveis.
Isto inclui a investigação sobre a tecnologia de marcas de água invisíveis, como a Assinatura estável desenvolvido pelo laboratório de investigação em IA da Meta, FAIR, que integra a marca de água diretamente no processo de geração de imagens.
Eleições à porta, intensificação das falsificações profundas
Assistimos a numerosos casos de desinformação política canalizado através de falsificações profundas.
Google, Meta, YouTube, X e outros estão a intensificar os esforços para combater as falsificações profundas antes das próximas eleições, incluindo nos EUA e no Reino Unido (muito provavelmente).
À medida que os conteúdos gerados por IA se tornam mais sofisticados e generalizados, aumenta a necessidade de vigilância e inovação na autenticação e transparência dos conteúdos.
Estará à vista uma solução definitiva? Parece que não.