Como é que o "direito a ser esquecido" (RTBF) funciona no contexto da IA?

15 de julho de 2023

Conformidade com o RGPD

Um novo estudo revela as complexidades do "direito a ser esquecido" (RTBF) do RGPD no contexto da IA.

Também conhecido como o Direito à Eliminação, este direito dá aos indivíduos o poder de exigir que as empresas de tecnologia eliminem permanentemente os seus dados pessoais. No entanto, no contexto dos modelos de linguagem de grande dimensão (LLM) e dos chatbots de IA, não existe uma forma simples de efetuar a engenharia inversa da formação do modelo para remover dados específicos. 

O direito a ser esquecido vai para além do RGPD europeu. Existe legislação comparável no Canadá (CCPA), no Japão (APPI) e em vários outros países. Originalmente, os procedimentos de RTBF foram concebidos principalmente para motores de pesquisa, tornando relativamente simples para empresas como a Google e a Microsoft localizar e eliminar dados específicos dos seus índices Web.

Os investigadores da Data61 Business Unit, um ramo da Agência Nacional de Ciência da Austrália especializado em IA, robótica e cibersegurança, exploraram a RTBF para IA numa estudo recente.

O seu objetivo era investigar se e como a RTBF poderia funcionar numa nova era de modelos de IA treinados em grandes quantidades de dados extraídos da Internet. Estes dados contêm nomes e provavelmente outras informações de identificação pessoal (IPI). 

Em alguns casos, as IA podem emitir informações incorrectas ou mesmo difamatórias sobre as pessoas. Nos últimos meses, a OpenAI tem estado envolvida em vários processos por difamaçãoA sua produção alega que um homem cometeu fraude e outro agressão sexual, o que não é verdade em nenhum dos casos. 

Em qualquer uma destas situações, a eliminação dos dados que provocaram as alegações deve ser um mínimo absoluto. 

No entanto, tal como salientado pelos investigadores, os algoritmos de aprendizagem automática (ML) não são tão simples como os motores de busca.

Salientam que os LLM armazenam e processam a informação "de uma forma completamente diferente" em comparação com a abordagem de indexação utilizada pelos motores de busca.

E como é que o utilizador sabe se os seus dados pessoais estão contidos no modelo? De acordo com os investigadores, os utilizadores só podem adquirir conhecimento sobre os seus dados pessoais nos LLM "inspeccionando o conjunto de dados de treino original ou talvez solicitando o modelo". Foi assim que Mark Walters, da Geórgia, EUA, descobriu que o seu nome estava associado a uma fraude nalguns dos resultados do ChatGPT. 

ChatGPT disse sobre Walters, "Mark Walters ('Walters') é um indivíduo que reside na Geórgia... Walters violou estes deveres e responsabilidades, entre outras coisas, desviando e apropriando-se indevidamente dos fundos e activos da SAF em seu próprio benefício, e manipulando os registos financeiros e extractos bancários da SAF para esconder as suas actividades."

Embora os serviços de IA coloquem desafios ao direito a ser esquecido, isso não significa que estejam isentos do respeito pelos direitos de privacidade. 

Os investigadores propõem várias estratégias para eliminar dados dos modelos de formação de IA, incluindo a técnica SISA de "desaprendizagem de máquinas", a desaprendizagem de gráficos indutivos e a eliminação aproximada de dados, entre outras. 

Estes métodos poderiam permitir aos criadores de IA sondar de forma fiável os seus conjuntos de dados e remover dados específicos para manter a RTBF.

Pode remover os seus dados de modelos de IA como o ChatGPT?

A OpenAI introduziu procedimentos para que as pessoas possam solicitar a eliminação de dados pessoais em modelos de IA e optar pela não utilização futura de dados para treinar a IA. 

Este artigo abrange vários aspectos da política de privacidade da OpenAI, incluindo o direito ao apagamento, que pode ser solicitado através de este formulário. O tratamento específico destes pedidos continua a ser nebuloso e há poucos indícios de pessoas que tenham apresentado pedidos de RTBF com êxito. 

Além disso, os utilizadores podem fazer um Pedido de Acesso do Titular dos Dados (DSAR) para exercer os direitos concedidos pelo RGPD, como a correção, restrição ou transferência de dados. 

No entanto, a OpenAI observou que a correção de dados imprecisos gerados pelos seus modelos é atualmente inviável, pelo que a eliminação seria provavelmente a solução.

Apesar destes mecanismos, a OpenAI alertou para o facto de poder recusar ou dar apenas seguimento parcial aos pedidos com base em restrições legais e no equilíbrio entre os pedidos de privacidade e a liberdade de expressão.

A OpenAI também oferece uma opção de exclusão para os utilizadores que não querem que os seus dados sejam utilizados para o treino de IA através das definições da conta ChatGPT.

A OpenAI disponibiliza o seguinte endereço de correio eletrónico para correspondência sobre este assunto: [email protected].

Naturalmente, o ChatGPT não é a única IA treinada com dados abertos da Internet. Qualquer pessoa que deseje remover as suas informações pessoais de todos os principais chatbots de IA públicos deve contactar cada programador separadamente.

A realidade é que a maioria dos dados publicados na Internet está à disposição das empresas de IA e a remoção de dados dos modelos é um desafio excecional. 

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições