OpenAI Diretor Executivo, Sam AltmanO eurodeputado português José Manuel Durão Barroso (Grupo Confederal da Esquerda Unitária Europeia/Esquerda Nórdica Verde) defende a criação de uma agência internacional para monitorizar os futuros modelos de inteligência artificial mais poderosos, de modo a garantir a sua segurança.
Numa entrevista no podcast All-In, Altman disse que em breve veremos modelos de IA de fronteira que serão significativamente mais poderosos e potencialmente mais perigosos.
Altman disse: "Penso que chegará um momento num futuro não muito distante, como se não estivéssemos a falar de décadas e décadas a partir de agora, em que os sistemas de IA de fronteira serão capazes de causar danos globais significativos".
O US e UE têm vindo a aprovar legislação para regulamentar a IA, mas Altman não acredita que uma legislação inflexível possa acompanhar a rapidez com que a IA está a avançar. É também crítico em relação às US Estados que tentam regulamentar a IA de forma independente.
Falando de sistemas avançados de IA previstos, Altman E para esse tipo de sistemas, da mesma forma que temos uma supervisão global das armas nucleares ou da biologia sintética ou de coisas que podem realmente ter um impacto muito negativo muito para além do domínio de um país.
Gostaria de ver uma espécie de agência internacional que analisasse os sistemas mais potentes e garantisse testes de segurança razoáveis".
Altman Este tipo de controlo internacional seria necessário para evitar que uma IA superinteligente pudesse "escapar e auto-aperfeiçoar-se recursivamente".
Altman reconheceu que, embora seja necessária uma supervisão dos modelos de IA potentes, uma regulamentação excessiva da IA poderia travar o progresso.
A abordagem que sugere é semelhante à regulamentação nuclear internacional. A Agência Internacional de Energia Atómica supervisiona os Estados membros com acesso a quantidades significativas de material nuclear.
"Se a linha em que só vamos olhar para os modelos que são treinados em computadores que custam mais de 10 mil milhões ou mais de 100 mil milhões ou o que quer que seja de dólares, eu não me importaria. Haveria uma linha que seria óptima. E não creio que isso represente um ónus regulamentar para as empresas em fase de arranque", explicou.
Altman explicou por que razão considerava que a abordagem da agência era melhor do que tentar legislar sobre a IA.
"A razão pela qual tenho defendido uma abordagem baseada em agências é o facto de se tratar de uma abordagem global e não... escrever tudo em leis,... daqui a 12 meses, tudo estará escrito de forma errada... E não creio que mesmo que estas pessoas fossem verdadeiros especialistas mundiais, não creio que conseguissem acertar. Se pensarmos em 12 ou 24 meses", disse.
Quando é que o GPT-5 será lançado?
Quando questionado sobre uma data de lançamento do GPT-5, Altman foi previsivelmente pouco recetivo, mas deu a entender que pode não acontecer da forma que pensamos.
"Levamos o nosso tempo a lançar modelos importantes... Além disso, não sei se lhe chamaremos GPT-5", afirmou.
Altman apontou para as melhorias iterativas OpenAI fez no GPT-4 e afirmou que estas indicam melhor a forma como a empresa irá implementar futuras melhorias.
Assim, parece que é menos provável que vejamos um lançamento do "GPT-5" e mais provável que tenhamos recursos adicionais adicionados ao GPT-4.
Teremos de esperar por OpenAIpara ver se obtemos mais alguma pista sobre o que é que a ChatGPT mudanças que podemos esperar ver.
Se quiser ouvir a entrevista completa, pode ouvir aqui.