O diretor executivo da OpenAI define a regulamentação para as IAs superinteligentes

24 de maio de 2023

Regulamento OpenAI

O diretor executivo da OpenAI, Sam Altman, intensifica o debate sobre a regulamentação da IA em antecipação da "superinteligência".

Num novo artigo publicado no Blogue da OpenAI, o diretor executivo da empresa, Sam Altman, e os colegas Ilya Sutskever e Greg Brockman debatem a progressão da IA em direção à "superinteligência", também conhecida como inteligência geral artificial (AGI)

Isto acontece menos de uma semana depois de Sam Altman testemunhou perante o Congressoafirmando que a IA exige uma regulamentação "urgente" para salvaguardar a sociedade e, ao mesmo tempo, preservar os seus benefícios. 

A superinteligência descreve as IA que ultrapassam as capacidades cognitivas dos seres humanos, um marco que Altman, Sutskever e Brockman dizem ser possível atingir nos próximos dez anos. 

Essas IA seriam capazes de uma produtividade equivalente à de algumas das maiores empresas do mundo, remodelando a sociedade tanto para fins positivos como negativos. 

O artigo sugere três vias potenciais para mitigar os riscos da superinteligência: 

1: Coordenação

Altman, Sutskever e Brockman apelam a uma colaboração estreita entre os líderes da IA para manter a segurança e facilitar a integração da superinteligência na sociedade. 

Isto poderia ser implementado através de projectos governamentais ou de acordos mútuos entre empresas, com os líderes da IA a concordarem em limitar a taxa de crescimento da inteligência dos seus modelos. 

2: Controlo internacional 

Em segundo lugar, sugerem a criação de uma agência internacional de superinteligência, à semelhança da Agência Internacional da Energia Atómica (AIEA), fundada em 1957, para atenuar os riscos da tecnologia nuclear emergente. 

Os quadros regulamentares criados pela agência seriam aplicados voluntariamente e através dos governos nacionais. 

3: Controlo público

Em terceiro lugar, a OpenAI apela ao envolvimento do público nas regras que rodeiam a superinteligência, sugerindo que o público deve supervisionar os "limites e os padrões" da IA através de um sistema democrático. 

Altman, Sutskever e Brockman afirmam: "Ainda não sabemos como conceber esse mecanismo, mas tencionamos fazer experiências com o seu desenvolvimento". A OpenAI tinha descrito anteriormente por defeito como o comportamento "pronto a usar" de uma IA e por limites como os limites impostos às suas capacidades. 

A OpenAI defende também que devem ser incentivados os projectos de código aberto desenvolvidos abaixo de um determinado "limiar" de capacidades.

Afirmam: "Acreditamos que seria pouco intuitivo, arriscado e difícil impedir a criação de superinteligência". 

Dado o crescimento exponencial da IA na última década, as visões da OpenAI para um cenário de IA regulamentado podem revelar-se prescientes.

No entanto, o sector da IA vai certamente ser testado pelo apelo da empresa à colaboração e à vontade de ser regulamentado. Até à data, há poucas provas de colaboração cruzada entre os líderes da IA.

A promoção de objectivos competitivos e a proteção do público serão um desafio - e, a acreditar na OpenAI, o momento de agir em relação à superinteligência da IA é agora.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições