Grupo europeu de defesa da privacidade noyb está a processar OpenAI porque ChatGPT gera repetidamente informações inexactas sobre as pessoas e não as corrige.
Apesar dos seus progressos, ChatGPT continua a sofrer de uma tendência para alucinar quando não sabe a resposta a uma pergunta.
A figura pública anónima que noyb está a representar sentiu-se lesado quando ChatGPT Quando lhe era pedida, o modelo simplesmente inventava uma data em vez de dizer que não tinha a informação.
Pode parecer trivial para alguns, mas a falsificação de informações pessoais pode ter consequências graves, razão pela qual é considerada uma questão importante na Europa. RGPD As regras estabelecem que as informações publicadas sobre as pessoas devem ser exactas.
Se as informações publicamente disponíveis forem inexactas, o indivíduo tem o direito de solicitar a sua correção ou eliminação. Tem também o direito de saber de onde foram recolhidas as suas informações e onde e como são armazenadas.
OpenAI diz que não pode ajudar em nada disso. Não pode (ou não quer) dizer o que dados de treino utilizado para recolher informações sobre a pessoa e diz que não pode parar ChatGPT de fazer declarações factualmente incorrectas sobre a pessoa ou outros.
A empresa disse que podia filtrar os pedidos sobre a pessoa, mas não sem bloquear todas as respostas relacionadas com ela. OpenAI afirma que "a precisão factual em grandes modelos linguísticos continua a ser uma área de investigação ativa".
Por outras palavras, sabem que é um problema, mas não têm a certeza de como o resolver.
🚨 noyb apresentou uma queixa contra o ChatGPT criador OpenAI
OpenAI admite abertamente que é incapaz de corrigir informações falsas sobre pessoas em ChatGPT. A empresa nem sequer sabe dizer de onde vêm os dados.
Leia tudo sobre o assunto aqui 👇https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29 de abril de 2024
No seu processo junto da autoridade austríaca para a proteção de dados (DSB), noyb diz OpenAI "declarou que não há forma de impedir a sua
os sistemas não apresentem no resultado a data de nascimento inexacta da pessoa em causa, se o utilizador pedir esta informação."
noybque significa "não tem nada a ver com isso", afirma que "inventar simplesmente dados sobre indivíduos não é uma opção" e que OpenAIA resposta da Comissão ao problema não é suficientemente boa.
Maartje de Graaf, advogada de proteção de dados na noyb A obrigação de responder aos pedidos de acesso aplica-se a todas as empresas. É claramente possível manter registos dos dados de formação que foram utilizados, pelo menos ter uma ideia das fontes de informação. Parece que a cada 'inovação', outro grupo de empresas pensa que os seus produtos não têm de cumprir a lei".
OpenAI pode ser o alvo desta ação judicial, mas o problema ChatGPT O problema de inventar informações falsas é um problema que outros modelos também têm.
Enquanto os modelos de IA não aprenderem a dizer "não sei" e os seus criadores não forem abertos quanto aos seus dados de treino, problemas como este continuarão a acontecer.
Os utilizadores europeus terão de decidir se a utilidade de uma ferramenta como ChatGPT é mais ou menos valioso do que os seus direitos consagrados no RGPD.
Para já, não podem ter as duas coisas.