A Alphabet pede cautela: Chatbots de IA e confidencialidade

17 de junho de 2023

A empresa-mãe da Google, a Alphabet, está a avisar os funcionários contra a utilização de chatbots, incluindo o seu próprio Bard, devido a preocupações com a proteção de dados sensíveis. Citando uma política de proteção de dados de longa data, a empresa advertiu o pessoal contra a introdução de informações privadas nos chatbots de IA. 

Chatbots como o Bard e o ChatGPT empregam inteligência artificial generativa para ter conversas que imitam a interação humana e respondem aos pedidos dos utilizadores.

Como parte do processo de formação, os revisores humanos podem ler estas interacções. Os investigadores descobriram que os modelos de IA incorporados nestes chatbots são capazes de recriar os dados ingeridos durante o treino, criando potencialmente um risco de fuga. 

Além disso, a Alphabet deu instruções aos seus programadores para se absterem de utilizar diretamente o código informático gerado pelo chatbot. A Bard pode fornecer recomendações de codificação, mas a empresa compreende a necessidade de prudência e abertura quanto às limitações da sua tecnologia. 

Uma vez que a Google concorre com o ChatGPT, um serviço apoiado pela OpenAI e pela Microsoft, esta estratégia cuidadosa tem como objetivo minimizar qualquer possível prejuízo para a empresa da Google.

Outras empresas, incluindo a Samsung, a Amazon e o Deutsche Bank, adoptaram medidas de segurança semelhantes, o que demonstra o aumento da fasquia da segurança empresarial. 

As preocupações são levantadas pela possibilidade de serem partilhadas informações incorrectas, informações privadas ou mesmo material protegido por direitos de autor nas discussões dos chatbots.

Algumas empresas criaram soluções de software para resolver estes problemas. Por exemplo, o Cloudflare oferece a opção de marcar e limitar a transferência de dados para o exterior, protegendo os dados sensíveis. 

Apesar de serem mais caras, a Google e a Microsoft também fornecem ferramentas de conversação para clientes comerciais que não incluem os seus dados em modelos de IA de código aberto. Embora os utilizadores tenham a opção de os remover, o Bard e o ChatGPT preservam, por defeito, os históricos de conversação dos utilizadores.

Yusuf Mehdi, diretor de marketing da divisão de consumo da Microsoft, afirmou: "Faz sentido que as empresas evitem utilizar chatbots disponíveis ao público em geral por motivos comerciais. Em comparação com o chatbot gratuito do Bing, a Microsoft estabelece regras mais rígidas para o seu software comercial. Outro executivo admitiu limitações pessoais na utilização de tais programas, apesar do silêncio da Microsoft sobre o tema de uma proibição geral de informações proprietárias em programas de IA acessíveis ao público".

As medidas de segurança implementadas pela Alphabet e por outras empresas sublinham a necessidade de garantir a proteção dos dados privados durante a utilização de chatbots com IA. As empresas podem reduzir os riscos e garantir a confidencialidade dos dados através da implementação de regras e soluções técnicas.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Jay Parmar

Jay é um escritor técnico e graduado em Ciência da Computação. É um entusiasta de longa data de IA e ML e escreve para várias plataformas como HashDork, TutorialsPoint. Fora de serviço, Jay simplifica a tecnologia e trabalha como freelancer.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições