A Anthropic, a Google, a Microsoft e a OpenAI lançaram o Frontier Model Forum em julho e afectaram agora $10m a um AI Safety Fund para apoiar a iniciativa.
O Fórum de Modelos de Fronteira foi criado com o objetivo de estabelecer normas de segurança para a IA e avaliar modelos de fronteira para garantir um desenvolvimento responsável. Parece que o grupo está finalmente a pôr mãos à obra, uma vez que anunciado Chris Meserole como seu primeiro Diretor Executivo
Meserole tem sólidas credenciais em matéria de IA, tendo sido recentemente Diretor da Iniciativa de Inteligência Artificial e Tecnologias Emergentes na Brookings Institution.
Numa declaração sobre a sua nova nomeação, Meserols afirmou: "Os modelos de IA mais poderosos são uma enorme promessa para a sociedade, mas para concretizar o seu potencial temos de compreender melhor como desenvolvê-los e avaliá-los com segurança. Estou entusiasmado por assumir esse desafio com o Frontier Model Forum".
A missão do fórum consiste em:
- Fazer avançar a investigação sobre a segurança da IA para promover o desenvolvimento responsável de modelos de ponta e minimizar os riscos potenciais
- Identificar as melhores práticas de segurança para modelos de fronteira
- Partilhar conhecimentos com decisores políticos, académicos, sociedade civil e outros para promover o desenvolvimento responsável da IA
- Apoiar os esforços para tirar partido da IA para enfrentar os maiores desafios da sociedade.
O AI Safety Fund foi criado para financiar a iniciativa com um montante inicial de $10m proveniente da Anthropic, Google, Microsoft e OpenAI, bem como de alguns outros filantropos.
Hoje, estamos a lançar um novo Fundo de Segurança da IA do Frontier Model Forum: um compromisso de @Google, @AnthropicAI, @Microsoft e @OpenAI de mais de $10 milhões para promover a investigação independente para ajudar a testar e avaliar os modelos de IA mais capazes. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25 de outubro de 2023
Um dos principais objectivos declarados do Frontier Model Forum é "colaborar entre sectores". Algo que pode dificultar as suas ambições de colaboração é a notável ausência do Meta.
No início deste ano, o Fórum assinou compromissos voluntários em matéria de IA na Casa Branca. Mesmo na ausência do Meta, o grupo poderá ter peso suficiente para definir normas de IA que possam vir a ser mais amplamente adoptadas.
Resta saber como é que estas normas acabarão por ser transpostas para a legislação. Com as divergências em torno de domínios fundamentais como os dados de formação ou riscos potenciais associados aos modelos de fonte abertavai ser difícil chegar a um consenso.