O diretor executivo da OpenAI, Sam Altman, intensifica o debate sobre a regulamentação da IA em antecipação da "superinteligência".
Num novo artigo publicado no Blogue da OpenAI, o diretor executivo da empresa, Sam Altman, e os colegas Ilya Sutskever e Greg Brockman debatem a progressão da IA em direção à "superinteligência", também conhecida como inteligência geral artificial (AGI).
Isto acontece menos de uma semana depois de Sam Altman testemunhou perante o Congressoafirmando que a IA exige uma regulamentação "urgente" para salvaguardar a sociedade e, ao mesmo tempo, preservar os seus benefícios.
A superinteligência descreve as IA que ultrapassam as capacidades cognitivas dos seres humanos, um marco que Altman, Sutskever e Brockman dizem ser possível atingir nos próximos dez anos.
Essas IA seriam capazes de uma produtividade equivalente à de algumas das maiores empresas do mundo, remodelando a sociedade tanto para fins positivos como negativos.
O artigo sugere três vias potenciais para mitigar os riscos da superinteligência:
1: Coordenação
Altman, Sutskever e Brockman apelam a uma colaboração estreita entre os líderes da IA para manter a segurança e facilitar a integração da superinteligência na sociedade.
Isto poderia ser implementado através de projectos governamentais ou de acordos mútuos entre empresas, com os líderes da IA a concordarem em limitar a taxa de crescimento da inteligência dos seus modelos.
2: Controlo internacional
Em segundo lugar, sugerem a criação de uma agência internacional de superinteligência, à semelhança da Agência Internacional da Energia Atómica (AIEA), fundada em 1957, para atenuar os riscos da tecnologia nuclear emergente.
Os quadros regulamentares criados pela agência seriam aplicados voluntariamente e através dos governos nacionais.
3: Controlo público
Em terceiro lugar, a OpenAI apela ao envolvimento do público nas regras que rodeiam a superinteligência, sugerindo que o público deve supervisionar os "limites e os padrões" da IA através de um sistema democrático.
Altman, Sutskever e Brockman afirmam: "Ainda não sabemos como conceber esse mecanismo, mas tencionamos fazer experiências com o seu desenvolvimento". A OpenAI tinha descrito anteriormente por defeito como o comportamento "pronto a usar" de uma IA e por limites como os limites impostos às suas capacidades.
A OpenAI defende também que devem ser incentivados os projectos de código aberto desenvolvidos abaixo de um determinado "limiar" de capacidades.
Afirmam: "Acreditamos que seria pouco intuitivo, arriscado e difícil impedir a criação de superinteligência".
Dado o crescimento exponencial da IA na última década, as visões da OpenAI para um cenário de IA regulamentado podem revelar-se prescientes.
No entanto, o sector da IA vai certamente ser testado pelo apelo da empresa à colaboração e à vontade de ser regulamentado. Até à data, há poucas provas de colaboração cruzada entre os líderes da IA.
A promoção de objectivos competitivos e a proteção do público serão um desafio - e, a acreditar na OpenAI, o momento de agir em relação à superinteligência da IA é agora.