Numa tentativa de combater as falsificações profundas e a desinformação, as sete empresas de IA que concordaram com o quadro voluntário dos EUA para a IA comprometeram-se a colocar marcas de água nos conteúdos gerados pela IA.
Os participantes do quadro voluntárioanunciados pela Casa Branca em 21 de junho, incluem a Google, a OpenAI, a Microsoft, a Meta, a Amazon, a Anthropic e a Inflection.
Como parte desse quadro, estas empresas comprometeram-se a desenvolver marcas de água para ajudar o público a identificar a origem dos conteúdos gerados por IA e reduzir o engano.
Tal como uma marca de água convencional, uma marca de água de IA é anexada a uma imagem, vídeo, ficheiro de áudio ou texto.
A colocação de uma marca de água nos conteúdos gerados pela IA poderá reduzir as burlas, as campanhas virais falsas e a sextorsão. "Esta marca de água permitirá que a criatividade com IA floresça, mas reduzirá os riscos de fraude e engano", afirmou a Casa Branca.
Num publicação no blogue publicado pouco depois dos anúncios da Casa Branca, a OpenAI detalhou o seu acordo para "desenvolver mecanismos robustos, incluindo sistemas de proveniência e/ou marca de água para conteúdos áudio ou visuais". Também desenvolverá "ferramentas ou API para determinar se um conteúdo foi criado com o seu sistema".
A Google planeia aumentar a fiabilidade da informação integrando metadados e "outras técnicas inovadoras", para além da marca de água.
Várias outras salvaguardas foram anunciadas pela Casa Branca na sexta-feira, incluindo a realização de testes internos e externos em sistemas de IA antes do lançamento, o aumento do investimento em cibersegurança e a promoção da colaboração em todo o sector para reduzir os riscos da IA.
A OpenAI afirmou que estes compromissos marcam "um passo importante no avanço de uma governação significativa e eficaz da IA, tanto nos EUA como em todo o mundo".
A empresa também prometeu "investir em investigação em áreas que podem ajudar a informar a regulamentação, tais como técnicas para avaliar capacidades potencialmente perigosas em modelos de IA".
Nick Clegg, presidente da Meta para os assuntos globais, fez eco do sentimento da OpenAI, descrevendo estes compromissos como um "primeiro passo importante para garantir que se estabeleçam barreiras de proteção responsáveis para a IA".
As marcas de água com IA funcionam?
A marca de água de conteúdos gerados por IA, embora concetualmente apelativa, está longe de ser infalível.
As imagens, os vídeos e as gravações de áudio podem conter gráficos ou áudio minúsculos e ténues que assinalam a sua origem gerada por IA.
Do mesmo modo, a integração de metadados em ficheiros gerados por IA pode fornecer informações sobre a fonte e o processo de criação do conteúdo. No entanto, a remoção de marcas de água utilizando outras ferramentas de IA ou a remoção de metadados será provavelmente simples.
Se as marcas de água puderem ser removidas, o conteúdo gerado por IA sem marca de água ganha subitamente legitimidade. A ausência de uma marca de água pode ser utilizada para argumentar que uma imagem é genuína quando não o é - um compromisso potencialmente perigoso.
Quando se trata de texto gerado por IA, não existe uma solução direta. Ao contrário das imagens ou do áudio, o texto não se presta facilmente à incorporação de marcas de água.
A principal abordagem consiste em passar o texto por detectores de IA, que analisam a perplexidade do texto - uma medida da probabilidade de um modelo de IA prever uma determinada sequência de palavras - para estimar se o texto é gerado por IA.
Os detectores de IA têm as suas deficiências. Frequentemente, produzem taxas elevadas de falsos positivos, levando a que conteúdos não gerados por IA sejam erradamente assinalados.
Este problema é agravado quando se analisa texto escrito por falantes não nativos de inglês, que podem utilizar expressões menos comuns ou ter uma sintaxe atípica, aumentando ainda mais as taxas de falsos positivos. Um estudo recente desaconselhou a utilização de detectores de IA em contextos de educação e recrutamento por estas razões.
Além disso, à medida que os modelos de IA evoluem, a linha entre o conteúdo escrito por humanos e o conteúdo escrito por IA torna-se cada vez mais ténue. À medida que a IA melhora a imitação dos estilos de escrita humana, os detectores baseados na perplexidade tornar-se-ão menos fiáveis.
Embora a marca de água seja um passo no sentido de melhorar a transparência e a responsabilização dos conteúdos gerados por IA, não é uma solução simples e não serve como dissuasor final ou "bala de prata".