O documento Anthropic releases revela o enviesamento dos modelos linguísticos de grande dimensão

30 de junho de 2023
ai antrópico

Um novo artigo da empresa Anthropic, especializada em inteligência artificial, revelou os potenciais preconceitos inerentes aos modelos de linguagem de grande dimensão (LLM), sugerindo que estes sistemas de IA podem não representar adequadamente as diversas perspectivas globais sobre questões sociais.

Os investigadores criaram um conjunto de dados, GlobalOpinionQA, que inclui perguntas e respostas de inquéritos transnacionais concebidos para captar opiniões variadas sobre questões globais em diferentes países. 

Antrópico experiências questionou um LLM e descobriu que, por defeito, as respostas do modelo tendiam a alinhar-se mais com as opiniões de populações específicas, nomeadamente as dos EUA, Reino Unido, Canadá, Austrália e alguns outros países europeus e sul-americanos. 

Como funciona

  1. Criação de conjuntos de dados: A equipa criou o conjunto de dados GlobalOpinionQA. Este conjunto de dados incorpora perguntas e respostas de inquéritos transnacionais especificamente concebidos para captar uma gama diversificada de opiniões sobre questões globais.
  2. Definição de uma métrica de similaridade: Em seguida, o Anthropic formulou uma métrica para medir a semelhança entre as respostas dadas pelos LLMs e as respostas das pessoas. Esta métrica tem em conta o país de origem dos inquiridos humanos.
  3. Formação do LLM: O Anthropic formou um LLM com base na "IA Constitucional", garantindo que o LLM era útil, honesto e inofensivo. A IA constitucional é uma técnica desenvolvida pela Anthropic que tem como objetivo imbuir os sistemas de IA de "valores" definidos por uma "constituição".
  4. Realização de experiências: Utilizando a sua estrutura cuidadosamente concebida, a equipa da Anthropic executou 3 experiências distintas no LLM treinado.

Os investigadores argumentam que este facto evidencia um potencial enviesamento nos modelos, levando à sub-representação das opiniões de certos grupos em comparação com as dos países ocidentais. 

Se um modelo linguístico representar desproporcionadamente determinadas opiniões, corre o risco de impor efeitos potencialmente indesejáveis, como a promoção de visões do mundo hegemónicas e a homogeneização das perspectivas e crenças das pessoas", referiram.

Além disso, os investigadores observaram que o facto de o modelo considerar a perspetiva de um país específico conduziu a respostas mais semelhantes às opiniões dessas populações.

Isto significa que se pode pedir à IA que "considere a perspetiva sul-americana" num determinado debate cultural, por exemplo. No entanto, estas respostas reflectiam, por vezes, estereótipos culturais nocivos, sugerindo que os modelos não têm uma compreensão diferenciada dos valores e perspectivas culturais.

Curiosamente, quando os investigadores traduziram as perguntas do GlobalOpinionQA para uma língua-alvo, as respostas do modelo não corresponderam necessariamente às opiniões dos falantes dessas línguas.

Por isso, fazer uma pergunta, por exemplo, em japonês, não conduz necessariamente a respostas alinhadas com os valores culturais japoneses. Não se pode "separar" a IA dos seus valores predominantemente ocidentais.

Isto sugere que, apesar da sua adaptabilidade, os LLMs devem adquirir uma compreensão mais profunda dos contextos sociais para gerar respostas que reflictam com precisão as opiniões locais.

Os investigadores acreditam que as suas descobertas irão proporcionar transparência nas perspectivas codificadas e reflectidas pelos modelos linguísticos actuais. Apesar das limitações do seu estudo, esperam que este sirva de orientação para o desenvolvimento de sistemas de IA que incorporem uma diversidade de pontos de vista e experiências culturais, e não apenas os de grupos privilegiados ou dominantes. Também publicaram o seu conjunto de dados e um visualização interactiva.

Este estudo está amplamente alinhado com outros trabalhos académicos sobre o tema dos valores sociais e culturais da IA.

Por um lado, a maioria das IA fundamentais são treinadas por empresas e equipas de investigação predominantemente ocidentais.

Além disso, o dados utilizados para treinar IAs nem sempre representa a sociedade como um todo. Por exemplo, a grande maioria dos dados de formação para os LLM está escrita em inglês, reflectindo provavelmente os valores sociais e culturais da língua inglesa.

Os investigadores estão bem cientes dos potenciais preconceitos e discriminação na IA. No entanto, a sua resolução é extremamente complexa, exigindo uma combinação cuidadosa de conjuntos de dados personalizados de alta qualidade e de um contributo e monitorização humanos diligentes.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×
 
 

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI


 

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.



 
 

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições