Uma violação de segurança na OpenAI expôs o facto de as empresas de IA serem alvos lucrativos para os piratas informáticos.
A violação, que ocorreu no início do ano passado e foi recentemente comunicada pelo New York Times, envolveu um hacker que obteve acesso aos sistemas internos de mensagens da empresa.
O pirata informático recolheu pormenores de conversas de funcionários sobre as tecnologias mais recentes da OpenAI. Eis o que sabemos:
- A violação ocorreu no início do ano passado e envolveu um hacker que acedeu aos sistemas de mensagens internos da OpenAI.
- O hacker infiltrou-se num fórum online onde os funcionários da OpenAI discutiam abertamente as mais recentes tecnologias e desenvolvimentos de IA da empresa.
- A violação expôs discussões internas entre investigadores e funcionários, mas não comprometeu o código subjacente aos sistemas de IA da OpenAI nem quaisquer dados de clientes.
- Os executivos da OpenAI revelaram o incidente aos funcionários durante uma reunião geral nos escritórios da empresa em São Francisco, em abril de 2023, e informaram o seu conselho de administração.
- A empresa optou por não divulgar publicamente a violação, pois acreditava que não tinham sido roubadas informações sobre clientes ou parceiros e que o pirata informático era um particular sem ligações conhecidas a um governo estrangeiro.
- Leopold Aschenbrenner, um antigo gestor do programa técnico da OpenAI, enviou um memorando ao conselho de administração da empresa após a violação, argumentando que a OpenAI não estava a fazer o suficiente para impedir que governos estrangeiros roubassem os seus segredos.
- Aschenbrenner, que alega ter sido despedido por ter divulgado informações fora da empresa, afirmou num podcast recente que as medidas de segurança da OpenAI eram insuficientes para proteger contra o roubo de segredos importantes por parte de actores estrangeiros.
- A OpenAI contestou a caraterização que Aschenbrenner fez do incidente e das suas medidas de segurança, afirmando que as suas preocupações não levaram à sua separação da empresa.
Quem é Leopold Aschenbrenner?
Leopold Aschenbrenner é um antigo investigador de segurança da OpenAI da equipa de superalinhamento da empresa.
A equipa de superalinhamento, centrada na segurança a longo prazo da inteligência artificial geral avançada (AGI), desmoronou recentemente quando vários investigadores de renome deixaram a empresa.
Entre eles estava o cofundador da OpenAI, Ilya Sutskever, que constituiu recentemente uma nova empresa denominada Safe Superintelligence Inc.
Aschenbrenner escreveu um memorando interno no ano passado detalhando suas preocupações sobre as práticas de segurança da OpenAI, que ele descreveu como "flagrantemente insuficientes".
Fez circular o memorando entre especialistas de renome fora da empresa. Semanas depois, a OpenAI sofreu uma violação de dados, pelo que partilhou uma versão actualizada com os membros da administração. Pouco tempo depois, foi despedido da OpenAI.
"O que também pode ser um contexto útil é o tipo de perguntas que me fizeram quando me despediram... as perguntas eram sobre os meus pontos de vista sobre o progresso da IA, sobre a AGI, o nível adequado de segurança para a AGI, se o governo devia estar envolvido na AGI, se eu e a equipa de superalinhamento éramos leais à empresa e o que eu andava a fazer durante os eventos da direção da OpenAI", revelou Aschenbrenner num podcast.
"Outro exemplo é quando eu levantava questões de segurança - eles diziam-me que a segurança era a nossa prioridade número um", afirmou Aschenbrenner. "Invariavelmente, quando chegava a altura de investir recursos sérios ou de fazer cedências para tomar medidas básicas, a segurança não era prioritária."
A OpenAI contestou a caraterização do incidente feita por Aschenbrenner e as suas medidas de segurança. "Apreciamos as preocupações que Leopold levantou enquanto estava na OpenAI, e isso não levou à sua separação", respondeu Liz Bourgeois, uma porta-voz da OpenAI.
"Embora partilhemos o seu empenho na construção de uma I.G.A. segura, discordamos de muitas das afirmações que fez desde então sobre o nosso trabalho."
Empresas de IA tornam-se alvo de pirataria informática
As empresas de IA são, sem dúvida, um alvo atrativo para os hackers devido ao volume colossal de dados valiosos de que dispõem.
Estes dados dividem-se em três categorias principais: conjuntos de dados de formação de alta qualidade, registos de interação dos utilizadores e informações sensíveis dos clientes.
Basta considerar o valor de qualquer uma destas categorias.
Para começar, os dados de formação são o novo petróleo. Embora seja relativamente fácil obter alguns dados de bases de dados públicas como LEÃOA sua utilização deve ser verificada, limpa e aumentada.
Trata-se de um trabalho altamente intensivo. As empresas de IA têm grandes contratos com empresas de dados que fornecem estes serviços em África, na Ásia e na América do Sul.
Depois, temos de considerar os dados que as empresas de IA recolhem dos utilizadores.
Isto é particularmente valioso para os hackers quando se considera a informação financeira, o código e outras formas de propriedade intelectual que as empresas podem partilhar com as ferramentas de IA.
Um relatório recente sobre cibersegurança descobriu que mais de metade das interacções das pessoas com chatbots como o ChatGPT incluem informações sensíveis e pessoalmente identificáveis (PII). Outro estudo concluiu que 11% de trabalhadores partilhar informações comerciais confidenciais com o ChatGPT.
Além disso, à medida que mais empresas integram ferramentas de IA nas suas operações, muitas vezes precisam de conceder acesso às suas bases de dados internas, aumentando ainda mais os riscos de segurança.
Em suma, trata-se de um enorme fardo para as empresas de IA. E como a corrida ao armamento da IA intensifica-se, com países como a China a aproximarem-se rapidamente dos EUA, a superfície de ameaça só continuará a aumentar.
Para além destes sussurros da OpenAI, ainda não vimos provas de quaisquer violações de alto nível, mas é provavelmente apenas uma questão de tempo.