A indústria da IA deve aprender com a segurança nuclear, defendem os peritos

6 de junho de 2023
segurança nuclear

O desenvolvimento da IA tem sido rápido, o que significa que a regulamentação tem de recuperar o atraso e que a governação é, de certa forma, uma reflexão tardia.

Existem poucos processos formais para garantir a segurança da IA, e os investigadores dizem que cabe à indústria mudar essa situação.

Muitos líderes e figuras do sector da IA compararam a IA à energia nuclear. As semelhanças são muitas - A IA está a crescer rapidamente, representa um risco potencialmente existencial e é complicada pelos assuntos externos, desta vez entre as superpotências emergentes da IA, os EUA e a China.

Passaram décadas até que os engenheiros nucleares convencessem a comunidade científica em geral da segurança dos reactores nucleares. Os primeiros reactores foram construídos no final dos anos 40 e início dos anos 50, e só com a Lei da Energia Atómica dos EUA de 1954 é que surgiu algum nível de regulamentação. 

O governo dos EUA estava ciente dos riscos da energia nuclear, mas a URSS pôs em funcionamento o seu primeiro reator cívico em meados de 1954, pelo que não perdeu tempo a construir o seu próprio reator. Em 1955, o comissário Willard F. Libby afirmou: "O nosso grande risco é que este grande benefício para a humanidade seja morto de manhã por regulamentação desnecessária".

Há aqui alguma coisa que lhe pareça familiar? Só no mês passado é que o diretor executivo da OpenAI, Sam Altman instou a criação de um organismo internacional para a segurança da IA, como a Agência Internacional da Energia Atómica (AIEA), fundada em 1957. Tal como a energia nuclear, a gs governos de todo o mundo estão a tentar preservar os benefícios da IA e, ao mesmo tempo, regular os riscos. 

A AIEA era uma componente autónoma da ONU e tem atualmente 174 países membros. Depois de 1957, registaram-se relativamente poucos desastres nucleares até Chernobyl.

A IA deve aprender com a história da segurança nuclear

Heidy Khlaaf, diretor de engenharia da empresa de consultoria em cibersegurança Rastro de Bitsutilizado para avaliar e verificar a segurança das centrais nucleares. Recentemente, disse ao MIT que as centrais nucleares requerem milhares de documentos que atestam a sua segurança, aprofundando as mais ínfimas nuances de cada componente individual. 

Depois de Chernobyl, a regulamentação nuclear tornou-se extremamente rigorosa. O planeamento, o licenciamento e a construção de um reator nuclear podem demorar 10 anos ou mais, em parte porque o processo é rigorosamente controlado em cada momento. Khlaaf observa que isto não tem nada a ver com lucros - a segurança nuclear nasce de um verdadeiro risco existencial. 

Em contrapartida, as empresas de IA comunicam os seus modelos utilizando "cartões" simples que, essencialmente, listam funções. 

Além disso, o funcionamento interno do modelo é muitas vezes uma "caixa negra", o que significa que os processos de tomada de decisão estão em grande parte fechados a observadores externos. 

Mesmo o ChatGPT, ao contrário do homónimo da OpenAI, é uma caixa negra, e as empresas de IA já estabeleceram uma reputação de serem cautelosos quanto aos seus modelos e dados de treino. 

Imagine que os reactores nucleares eram uma "caixa negra" e que os seus criadores não diziam ao público como funcionavam? 

A análise dos riscos da IA tem de ser sistemática 

Para mitigar os riscos que os líderes de IA, como Altman, admitem prontamente, as empresas devem aprofundar as suas estratégias de rastreabilidade. Isto implica um controlo rigoroso desde o início do processo de desenvolvimento da IA. 

Khlaaf diz: "É necessário ter uma forma sistemática de analisar os riscos. Não se trata de um cenário em que se diz simplesmente: 'Oh, isto pode acontecer. Deixem-me escrever". 

Atualmente, não existe um processo estabelecido para a avaliação dos riscos da IA, mas tem havido algumas tentativas de o criar. 

Por exemplo, A DeepMind publicou recentemente um blogue técnico em colaboração com várias universidades, especificando que os modelos devem ser avaliados quanto a "riscos extremos" antes da formação. O documento apresenta duas estratégias:

  1. Avaliar a extensão das "capacidades perigosas" de um modelo que podem ser utilizadas para ameaçar a segurança, exercer influência ou escapar à supervisão humana.
  2. Avaliar o grau de probabilidade de um modelo causar danos, por exemplo, se corre o risco de não se comportar como previsto. 

Toby Shevlane, um dos investigadores do projeto, afirmou que "as principais empresas de IA que estão a fazer avançar a fronteira têm a responsabilidade de estar atentas aos problemas emergentes e de os detetar atempadamente para que possamos resolvê-los o mais rapidamente possível".

Se a IA deve aprender com a segurança nuclear, então a regulamentação precoce é fundamental, mas a complacência a longo prazo é letal. Ninguém sabe como seria uma versão IA de Chernobyl ou Fukushima, e ninguém quer descobrir.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×
 
 

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI


 

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.



 
 

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições