A OpenAI foi processada por informações falsas, mas diz que o problema não pode ser resolvido

4 de maio de 2024

  • O grupo europeu de defesa da privacidade noyb está a processar a OpenAI por informações incorrectas do ChatGPT
  • noyb representa uma figura pública que se queixou de que o ChatGPT indicou incorretamente a sua data de nascimento
  • A OpenAI diz que não pode corrigir informações incorrectas do ChatGPT para cumprir as regras do RGPD

Grupo europeu de defesa da privacidade noyb está a processar OpenAI porque ChatGPT gera repetidamente informações inexactas sobre as pessoas e não as corrige.

Apesar dos seus progressos, ChatGPT continua a sofrer de uma tendência para alucinar quando não sabe a resposta a uma pergunta.

A figura pública anónima que noyb está a representar sentiu-se lesado quando ChatGPT Quando lhe era pedida, o modelo simplesmente inventava uma data em vez de dizer que não tinha a informação.

Pode parecer trivial para alguns, mas a falsificação de informações pessoais pode ter consequências graves, razão pela qual é considerada uma questão importante na Europa. RGPD As regras estabelecem que as informações publicadas sobre as pessoas devem ser exactas.

Se as informações publicamente disponíveis forem inexactas, o indivíduo tem o direito de solicitar a sua correção ou eliminação. Tem também o direito de saber de onde foram recolhidas as suas informações e onde e como são armazenadas.

OpenAI diz que não pode ajudar em nada disso. Não pode (ou não quer) dizer o que dados de treino utilizado para recolher informações sobre a pessoa e diz que não pode parar ChatGPT de fazer declarações factualmente incorrectas sobre a pessoa ou outros.

A empresa disse que podia filtrar os pedidos sobre a pessoa, mas não sem bloquear todas as respostas relacionadas com ela. OpenAI afirma que "a precisão factual em grandes modelos linguísticos continua a ser uma área de investigação ativa".

Por outras palavras, sabem que é um problema, mas não têm a certeza de como o resolver.

No seu processo junto da autoridade austríaca para a proteção de dados (DSB), noyb diz OpenAI "declarou que não há forma de impedir a sua
os sistemas não apresentem no resultado a data de nascimento inexacta da pessoa em causa, se o utilizador pedir esta informação."

noybque significa "não tem nada a ver com isso", afirma que "inventar simplesmente dados sobre indivíduos não é uma opção" e que OpenAIA resposta da Comissão ao problema não é suficientemente boa.

Maartje de Graaf, advogada de proteção de dados na noyb A obrigação de responder aos pedidos de acesso aplica-se a todas as empresas. É claramente possível manter registos dos dados de formação que foram utilizados, pelo menos ter uma ideia das fontes de informação. Parece que a cada 'inovação', outro grupo de empresas pensa que os seus produtos não têm de cumprir a lei".

OpenAI pode ser o alvo desta ação judicial, mas o problema ChatGPT O problema de inventar informações falsas é um problema que outros modelos também têm.

Enquanto os modelos de IA não aprenderem a dizer "não sei" e os seus criadores não forem abertos quanto aos seus dados de treino, problemas como este continuarão a acontecer.

Os utilizadores europeus terão de decidir se a utilidade de uma ferramenta como ChatGPT é mais ou menos valioso do que os seus direitos consagrados no RGPD.

Para já, não podem ter as duas coisas.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições