O Senado investiga a segurança e a governação da OpenAI após alegações de delatores

23 de julho de 2024

  • Os senadores norte-americanos questionaram a OpenAI após alegações de restrições à denúncia de irregularidades
  • Questionaram também a "integridade da estrutura de governação da empresa"
  • A OpenAI deve responder formalmente a uma lista de perguntas até 13 de agosto
Senadores da OpenAI

A OpenAI encontra-se no centro de um inquérito do Senado na sequência de alegações de testes de segurança efectuados à pressa.

Cinco senadores, liderados por Brian Schatz (D-Hawaii), exigiram que a empresa fornecesse informações pormenorizadas sobre as suas práticas de segurança e acordos com os trabalhadores.

O inquérito surge na sequência de um Reportagem do Washington Post sugerindo que a OpenAI poderá ter comprometido os protocolos de segurança na pressa de lançar o GPT-4 Omni, o seu mais recente modelo de IA.

Entretanto, os denunciantes, incluindo investigadores de alto nível da OpenAI's desmantelada "equipa de superalinhamento," levantaram preocupações sobre os acordos de não divulgação (NDA) restritivos para os trabalhadores.

Carta dos senadores à OpenAI

Numa carta com palavras fortes dirigida ao diretor executivo da OpenAI, Sam Altman, cinco senadores exigiram informações pormenorizadas sobre as práticas de segurança da empresa e o tratamento dado aos trabalhadores.

O carta suscita preocupações quanto ao empenhamento da OpenAI no desenvolvimento responsável da IA e às suas políticas internas.

"Dada a posição da OpenAI como empresa líder em IA, é importante que o público possa confiar na segurança e proteção dos seus sistemas", escrevem os senadores.

Questionam ainda a "integridade da estrutura de governação e dos testes de segurança da empresa, as suas práticas laborais, a sua fidelidade às suas promessas públicas e à sua missão, e as suas políticas de cibersegurança".

Os senadores, liderados por Brian Schatz (D-Hawaii), estabeleceram um prazo até 13 de agosto para que a OpenAI responda a uma série de questões pontuais. Estas incluem se a empresa vai honrar o seu compromisso de dedicar 20% de recursos informáticos à investigação sobre segurança da IA e se vai permitir que peritos independentes testem os seus sistemas antes do lançamento.

Sobre o tema dos acordos restritivos com os funcionários, a carta pede à OpenAI que confirme que "não aplicará acordos permanentes de não-dissociação a actuais e antigos funcionários" e que se comprometa a "remover quaisquer outras disposições dos acordos de trabalho que possam ser utilizadas para penalizar os funcionários que levantem publicamente preocupações sobre as práticas da empresa".

Mais tarde, a OpenAI recorreu ao X para tranquilizar o público sobre o seu compromisso com a segurança.

"Garantir que a IA possa beneficiar todos começa com a construção de IA que seja útil e segura. Queremos partilhar algumas atualizações sobre como estamos a dar prioridade à segurança no nosso trabalho", afirmou a empresa numa publicação recente.

A OpenAI destacou o seu Quadro de Preparação, concebido para avaliar e proteger contra os riscos colocados por modelos de IA cada vez mais poderosos.

"Não lançaremos um novo modelo que ultrapasse um limiar de risco 'médio' até estarmos confiantes de que o podemos fazer em segurança", garantiu a empresa.

Em resposta às alegações de acordos restritivos entre funcionários, a OpenAI declarou: "A nossa política de denúncia protege os direitos dos funcionários de fazerem revelações protegidas. Também acreditamos que um debate rigoroso sobre essa tecnologia é importante e fizemos alterações em nosso processo de saída para remover termos de não depreciação."

A empresa também mencionou as medidas recentes para reforçar as suas medidas de segurança.

Em maio, o Conselho de Administração da OpenAI lançou um novo comité de Segurança e Proteção, que inclui reformado US General do Exército Paul Nakasone, um dos principais especialistas em cibersegurança.

A OpenAI mantém a sua posição sobre os benefícios da IA. "Acreditamos que os modelos de IA de ponta podem beneficiar muito a sociedade", afirmou a empresa, reconhecendo a necessidade de vigilância contínua e de medidas de segurança.

Apesar de alguns progressos, as hipóteses de aprovar legislação abrangente em matéria de IA este ano são reduzidas, uma vez que as atenções se voltam para as eleições de 2024.

Na ausência de novas leis do Congresso, a Casa Branca tem-se apoiado largamente em compromissos voluntários das empresas de IA para garantir que criam sistemas de IA seguros e fiáveis.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições