Esta semana, duas situações de abuso de informação privilegiada envolvendo os gigantes da tecnologia Microsoft e Google levantaram questões sobre o desenvolvimento responsável de sistemas de IA e a gestão da propriedade intelectual.
Em primeiro lugar, na Microsoft, Shane Jones, um gestor principal de engenharia de software com seis anos de experiência, tem estado a testar de forma independente o gerador de imagens de IA Copilot Designer no seu tempo livre.
Jones disse CNBC que ficou profundamente perturbado com as imagens violentas, sexuais e protegidas por direitos de autor que a ferramenta era capaz de gerar. "Foi um momento de abrir os olhos", disse Jones. "Foi quando me apercebi que este não é um modelo seguro".
Desde novembro de 2022, Jones tem vindo a testar ativamente o produto para detetar vulnerabilidades, uma prática conhecida como red-teaming.
Descobriu que o Copilot Designer podia criar imagens que representavam "demónios e monstros, juntamente com terminologia relacionada com o direito ao aborto, adolescentes com espingardas de assalto, imagens sexualizadas de mulheres em quadros violentos e consumo de álcool e drogas por menores".
Apesar de ter comunicado as suas descobertas à Microsoft em dezembro, Jones disse que a empresa tem estado relutante em retirar o produto do mercado.
O Copilot da Microsoft actuou de forma estranha em algumas ocasiões, incluindo adotar um "modo deus", que o levou a prometer o domínio do mundo.
Numa carta dirigida à Presidente da Comissão Federal do Comércio, Lina Khan, Jones escreveu: "Nos últimos três meses, instei repetidamente a Microsoft a retirar o Copilot Designer da utilização pública até que pudessem ser implementadas melhores salvaguardas."
Acrescentou que, uma vez que a Microsoft "recusou essa recomendação", insta a empresa a acrescentar informações claras ao produto e a alterar a sua classificação na aplicação Android da Google para indicar que só é adequado para públicos adultos.
O Copilot Designer tem sido fácil de persuadir a contornar as suas barreiras de proteção e foi responsável pelo recente e notório caso explícito de imagens de Taylor Swiftque circulou por milhões de pessoas nas redes sociais.
Como Jones argumenta, o A capacidade dos sistemas de IA para gerar imagens perturbadoras e potencialmente nocivas levanta sérias questões sobre a eficácia dos dispositivos de segurança e a facilidade com que podem ser subvertidos.
Polémica interna na Google
Entretanto, a Google está a braços com a sua própria controvérsia relacionada com a IA.
Linwei Ding, também conhecido como Leon Ding, um antigo engenheiro de software da Google, foi acusado na Califórnia de quatro crimes relacionados com o alegado roubo de segredos comerciais sobre a IA enquanto trabalhava secretamente para duas empresas chinesas.
O cidadão chinês é acusado de roubo mais de 500 ficheiros confidenciais relacionados com a infraestrutura dos centros de dados de supercomputação da Google, que alojam e treinam grandes modelos de IA.
De acordo com a acusação, a Google contratou Ding em 2019 e começou a carregar dados sensíveis da rede da Google para a sua conta pessoal da Google em maio de 2022.
Estes carregamentos continuaram periodicamente durante um ano, durante o qual Ding passou alguns meses na China a trabalhar para a Beijing Rongshu Lianzhi Technology. Esta empresa tecnológica em fase de arranque abordou-o e ofereceu-lhe um salário mensal de $14.800 para trabalhar como Chief Technology Officer (CTO).
Ding também terá fundado a sua própria empresa de IA, a Shanghai Zhisuan Technology.
Procurador-Geral dos EUA Merrick Garland declaradoO Departamento de Justiça não vai tolerar o roubo de inteligência artificial e de outras tecnologias avançadas que possam pôr em risco a nossa segurança nacional". O diretor do FBI, Christopher Wray, acrescentou que as alegadas acções de Ding "são a mais recente ilustração dos esforços" que as empresas chinesas farão "para roubar a inovação americana".
À medida que o mundo se debate com o potencial transformador da IA, as controvérsias internas nas empresas tecnológicas ameaçam atiçar as chamas da discórdia.
Os casos da Microsoft e da Google sublinham a importância de promover uma cultura de inovação responsável, incluindo a confiança e a transparência no seio da própria empresa.
A IA é uma tecnologia que exige confiança, e as empresas tecnológicas precisam de dar mais garantias. Mas isso nem sempre tem acontecido.
FPor exemplo, um grupo de mais de 100 peritos em tecnologia co-assinou uma carta que imploram às empresas de IA que abram as suas portas a testes independentes.
Argumentaram que as empresas tecnológicas são demasiado secretas em relação aos seus produtos, exceto quando são obrigadas a fazê-lo, como aconteceu quando a Google retirou Modelo de geração de imagens do Gemini por criar imagens bizarras e historicamente inexactas.
Atualmente, parece que o ritmo excecional de desenvolvimento da IA deixa muitas vezes para trás a confiança e a segurança.