Antigos funcionários da OpenAI publicam carta aberta "Right to Warn

5 de junho de 2024

  • Numa carta aberta, actuais e antigos funcionários da OpenAI e da Google apelam à liberdade de comunicar os riscos da IA
  • A carta intitula-se "O direito de alertar para a inteligência artificial avançada"
  • A carta afirma que as empresas de IA são desincentivadas a comunicar riscos e que os funcionários são punidos quando o fazem

Um grupo de antigos e actuais funcionários da OpenAI e da Google está a chamar a atenção das empresas de IA para o que dizem ser uma perigosa cultura de secretismo em torno dos riscos da IA.

A carta intitulada "O direito de alertar sobre a inteligência artificial avançada" afirma que as empresas de IA têm fortes incentivos financeiros para evitar uma supervisão efectiva dos potenciais riscos da IA.

Para além de serem imprudentes ao centrarem-se nos objectivos financeiros em vez da segurança, a carta afirma que as empresas utilizam acordos de confidencialidade punitivos para desencorajar ativamente os trabalhadores de manifestarem as suas preocupações.

Os signatários são todos antigos funcionários da OpenAI e da Google, sendo Neel Nanda o único que ainda trabalha na Google. A carta foi também subscrita por Yoshua Bengio, Geoffrey Hinton e Stuart Russell, os maiores especialistas em IA.

Como prova da preocupação em denunciar os seus antigos empregadores, 6 dos signatários não quiseram revelar os seus nomes na carta.

Os antigos investigadores da OpenAI, Daniel Kokotajlo e William Saunders, que também assinaram a carta, deixaram a empresa no início deste ano.

Kokotajlo fazia parte da equipa de governação e Saunders trabalhou na equipa de Superalinhamento da OpenAI, que foi dissolvida no mês passado quando Ilya Sutskever e Jan Leiketambém abandonaram o clube por questões de segurança.

Kokotajlo explicou o motivo da sua saída num fórum, dizendo que acha que a OpenAI não se vai "comportar de forma responsável na altura da AGI".

Um apelo à ação

A carta apela a um maior empenhamento das empresas de IA na ausência de regulamentação que regule os riscos da IA que o público desconhece.

A carta diz que "as protecções normais dos denunciantes são insuficientes porque se concentram em actividades ilegais, enquanto muitos dos riscos que nos preocupam ainda não estão regulamentados".

A carta apela a que as empresas de IA se comprometam com quatro princípios. Em suma, pretendem que as empresas

  • Não celebrar ou aplicar acordos que proíbam críticas à empresa por questões de segurança nem reter benefícios financeiros devidos ao trabalhador. (ahem, OpenAI)
  • Facilitar um processo anónimo para que os funcionários apresentem preocupações relacionadas com o risco ao conselho de administração da empresa ou a outras organizações reguladoras.
  • Apoiar uma cultura de crítica aberta que permita aos empregados tornar públicas as preocupações relacionadas com os riscos, sem revelar a propriedade intelectual.
  • Não retaliar contra actuais e antigos funcionários que partilhem publicamente informações confidenciais relacionadas com riscos, depois de outros processos terem falhado.

Vários dos nomes que constam da lista de signatários consideram-se altruístas efectivos. Pelas suas publicações e comentários, é evidente que pessoas como Daniel Kokotajlo (Less Wrong) e William Saunders (AI Alignment Forum) acreditam que as coisas podem acabar muito mal se os riscos da IA não forem geridos.

Mas não se trata de trolls condenados num fórum, que se manifestam a partir das linhas laterais. Trata-se de intelectuais de topo que empresas como a OpenAI e a Google acharam por bem empregar para criar a tecnologia que agora temem.

E agora estão a dizer: "Vimos coisas que nos assustam. Queremos avisar as pessoas, mas não nos é permitido".

Pode ler o carta aqui.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições