Empresas de IA de grande tecnologia lançam um fundo de segurança de IA de $10 milhões

25 de outubro de 2023

IA generativa

A Anthropic, a Google, a Microsoft e a OpenAI lançaram o Frontier Model Forum em julho e afectaram agora $10m a um AI Safety Fund para apoiar a iniciativa.

O Fórum de Modelos de Fronteira foi criado com o objetivo de estabelecer normas de segurança para a IA e avaliar modelos de fronteira para garantir um desenvolvimento responsável. Parece que o grupo está finalmente a pôr mãos à obra, uma vez que anunciado Chris Meserole como seu primeiro Diretor Executivo

Meserole tem sólidas credenciais em matéria de IA, tendo sido recentemente Diretor da Iniciativa de Inteligência Artificial e Tecnologias Emergentes na Brookings Institution.

Numa declaração sobre a sua nova nomeação, Meserols afirmou: "Os modelos de IA mais poderosos são uma enorme promessa para a sociedade, mas para concretizar o seu potencial temos de compreender melhor como desenvolvê-los e avaliá-los com segurança. Estou entusiasmado por assumir esse desafio com o Frontier Model Forum".

A missão do fórum consiste em:

  • Fazer avançar a investigação sobre a segurança da IA para promover o desenvolvimento responsável de modelos de ponta e minimizar os riscos potenciais
  • Identificar as melhores práticas de segurança para modelos de fronteira
  • Partilhar conhecimentos com decisores políticos, académicos, sociedade civil e outros para promover o desenvolvimento responsável da IA
  • Apoiar os esforços para tirar partido da IA para enfrentar os maiores desafios da sociedade.

O AI Safety Fund foi criado para financiar a iniciativa com um montante inicial de $10m proveniente da Anthropic, Google, Microsoft e OpenAI, bem como de alguns outros filantropos.

Um dos principais objectivos declarados do Frontier Model Forum é "colaborar entre sectores". Algo que pode dificultar as suas ambições de colaboração é a notável ausência do Meta.

No início deste ano, o Fórum assinou compromissos voluntários em matéria de IA na Casa Branca. Mesmo na ausência do Meta, o grupo poderá ter peso suficiente para definir normas de IA que possam vir a ser mais amplamente adoptadas.

Resta saber como é que estas normas acabarão por ser transpostas para a legislação. Com as divergências em torno de domínios fundamentais como os dados de formação ou riscos potenciais associados aos modelos de fonte abertavai ser difícil chegar a um consenso.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições