A OpenAI anunciou planos para aumentar a investigação sobre "superinteligência" - uma forma de IA com capacidades que ultrapassam o intelecto humano.
Enquanto Superinteligência da IA possa parecer uma perspetiva distante, a OpenAI acredita que o seu desenvolvimento poderá ocorrer dentro de alguns anos.
A OpenAI afirma: "Atualmente, não temos uma solução para dirigir ou controlar uma IA potencialmente superinteligente e impedir que se torne desonesta". Esta é uma declaração bastante sinistra da empresa líder mundial em IA.
Para atenuar os riscos da IA superinteligente, a OpenAI planeia introduzir novas estruturas de governação e dedicar recursos ao alinhamento da superinteligência, que procura alinhar as IA altamente inteligentes com os princípios e valores humanos. O prazo para a concretização deste objetivo é de 4 anos.
Numa publicação no blogueA OpenAI identificou 3 objectivos principais - desenvolver métodos de formação escaláveis, validar o modelo resultante e testar exaustivamente o processo de alinhamento. Isto inclui a automatização do processo de descoberta de comportamentos problemáticos em grandes modelos. Para o conseguir, a OpenAI sugere o desenvolvimento de um "investigador de alinhamento automatizado" especializado - uma IA encarregada de alinhar a IA.
A OpenAI está também a reunir uma equipa de investigadores e engenheiros (humanos) de topo na área da aprendizagem de máquinas para assumir esta tarefa hercúlea. Para ajudar, a empresa está a dedicar 20% dos seus recursos de computação adquiridos nos próximos 4 anos ao alinhamento da superinteligência.
A sua recém-formada "equipa de superalinhamento" será responsável por essa tarefa, liderada pelo cofundador e cientista-chefe da OpenAI, Ilya Sutskever, e pelo diretor de alinhamento, Jan Leike.
Além disso, a OpenAI planeia partilhar os resultados deste trabalho com outros. Salientaram também que o trabalho existente para melhorar a segurança dos modelos actuais, como o ChatGPT, e atenuar outros riscos da IA, como a utilização indevida, a perturbação económica e a desinformação, vai continuar.
A publicação no blogue também solicita interesse nas suas posições para engenheiro de investigação, investigador científicoe gestor de investigação cargos. O salário mais baixo é de $245.000 por ano, variando até $450.000.
Técnicas da OpenAI para o alinhamento da IA
Numa publicação anterior no blogue sobre a superinteligência, a OpenAI descreve duas técnicas gerais de alinhamento:
1: Treinar a IA com feedback humano: Esta abordagem consiste em aperfeiçoar a IA utilizando as respostas e instruções humanas. Por exemplo, uma IA é treinada para dar respostas que correspondam tanto a comandos directos como a intenções mais subtis. A IA aprende com instruções explícitas e sinais mais implícitos, como a garantia de respostas verdadeiras e seguras. No entanto, uma abordagem centrada no ser humano pode ter dificuldades com capacidades complexas e é trabalhosa e morosa.
2: Modelos de treino para auxiliar a avaliação humana: A segunda abordagem reconhece que, à medida que a IA se torna mais sofisticada, há tarefas que pode realizar que são difíceis de avaliar pelos humanos. Assim, nesta abordagem, a IA é utilizada para efetuar tarefas e para avaliar a qualidade dessas tarefas. Por exemplo, uma IA pode ser utilizada para ajudar a verificar a exatidão da informação, resumir documentos extensos para uma avaliação humana mais fácil ou mesmo criticar o seu próprio trabalho.
O objetivo final é desenvolver sistemas de IA que possam efetivamente ajudar os seres humanos a avaliar tarefas complexas, à medida que a inteligência da IA ultrapassa os limites da cognição humana.
A OpenAI diz acreditar que o alinhamento da superinteligência é "tratável". Embora a perspetiva de uma IA superinteligente pareça estar a anos-luz de distância, seria imprudente assumir que a OpenAI está apenas a ser otimista.