As polémicas relacionadas com a IA atingem a Microsoft e a Google

7 de março de 2024

Google Microsoft

Esta semana, duas situações de abuso de informação privilegiada envolvendo os gigantes da tecnologia Microsoft e Google levantaram questões sobre o desenvolvimento responsável de sistemas de IA e a gestão da propriedade intelectual. 

Em primeiro lugar, na Microsoft, Shane Jones, um gestor principal de engenharia de software com seis anos de experiência, tem estado a testar de forma independente o gerador de imagens de IA Copilot Designer no seu tempo livre. 

Jones disse CNBC que ficou profundamente perturbado com as imagens violentas, sexuais e protegidas por direitos de autor que a ferramenta era capaz de gerar. "Foi um momento de abrir os olhos", disse Jones. "Foi quando me apercebi que este não é um modelo seguro".

Desde novembro de 2022, Jones tem vindo a testar ativamente o produto para detetar vulnerabilidades, uma prática conhecida como red-teaming. 

Descobriu que o Copilot Designer podia criar imagens que representavam "demónios e monstros, juntamente com terminologia relacionada com o direito ao aborto, adolescentes com espingardas de assalto, imagens sexualizadas de mulheres em quadros violentos e consumo de álcool e drogas por menores". 

Apesar de ter comunicado as suas descobertas à Microsoft em dezembro, Jones disse que a empresa tem estado relutante em retirar o produto do mercado.

O Copilot da Microsoft actuou de forma estranha em algumas ocasiões, incluindo adotar um "modo deus", que o levou a prometer o domínio do mundo. 

Numa carta dirigida à Presidente da Comissão Federal do Comércio, Lina Khan, Jones escreveu: "Nos últimos três meses, instei repetidamente a Microsoft a retirar o Copilot Designer da utilização pública até que pudessem ser implementadas melhores salvaguardas." 

Acrescentou que, uma vez que a Microsoft "recusou essa recomendação", insta a empresa a acrescentar informações claras ao produto e a alterar a sua classificação na aplicação Android da Google para indicar que só é adequado para públicos adultos.

O Copilot Designer tem sido fácil de persuadir a contornar as suas barreiras de proteção e foi responsável pelo recente e notório caso explícito de imagens de Taylor Swiftque circulou por milhões de pessoas nas redes sociais.

Como Jones argumenta, o A capacidade dos sistemas de IA para gerar imagens perturbadoras e potencialmente nocivas levanta sérias questões sobre a eficácia dos dispositivos de segurança e a facilidade com que podem ser subvertidos. 

Polémica interna na Google

Entretanto, a Google está a braços com a sua própria controvérsia relacionada com a IA.

Linwei Ding, também conhecido como Leon Ding, um antigo engenheiro de software da Google, foi acusado na Califórnia de quatro crimes relacionados com o alegado roubo de segredos comerciais sobre a IA enquanto trabalhava secretamente para duas empresas chinesas. 

O cidadão chinês é acusado de roubo mais de 500 ficheiros confidenciais relacionados com a infraestrutura dos centros de dados de supercomputação da Google, que alojam e treinam grandes modelos de IA.

De acordo com a acusação, a Google contratou Ding em 2019 e começou a carregar dados sensíveis da rede da Google para a sua conta pessoal da Google em maio de 2022. 

Estes carregamentos continuaram periodicamente durante um ano, durante o qual Ding passou alguns meses na China a trabalhar para a Beijing Rongshu Lianzhi Technology. Esta empresa tecnológica em fase de arranque abordou-o e ofereceu-lhe um salário mensal de $14.800 para trabalhar como Chief Technology Officer (CTO).

Ding também terá fundado a sua própria empresa de IA, a Shanghai Zhisuan Technology.

Procurador-Geral dos EUA Merrick Garland declaradoO Departamento de Justiça não vai tolerar o roubo de inteligência artificial e de outras tecnologias avançadas que possam pôr em risco a nossa segurança nacional". O diretor do FBI, Christopher Wray, acrescentou que as alegadas acções de Ding "são a mais recente ilustração dos esforços" que as empresas chinesas farão "para roubar a inovação americana".

À medida que o mundo se debate com o potencial transformador da IA, as controvérsias internas nas empresas tecnológicas ameaçam atiçar as chamas da discórdia. 

Os casos da Microsoft e da Google sublinham a importância de promover uma cultura de inovação responsável, incluindo a confiança e a transparência no seio da própria empresa.

A IA é uma tecnologia que exige confiança, e as empresas tecnológicas precisam de dar mais garantias. Mas isso nem sempre tem acontecido.

FPor exemplo, um grupo de mais de 100 peritos em tecnologia co-assinou uma carta que imploram às empresas de IA que abram as suas portas a testes independentes. 

Argumentaram que as empresas tecnológicas são demasiado secretas em relação aos seus produtos, exceto quando são obrigadas a fazê-lo, como aconteceu quando a Google retirou Modelo de geração de imagens do Gemini por criar imagens bizarras e historicamente inexactas. 

Atualmente, parece que o ritmo excecional de desenvolvimento da IA deixa muitas vezes para trás a confiança e a segurança.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições