Anthropic, Google, Microsoft y OpenAI lanzaron el Frontier Model Forum en julio y ahora han comprometido $10m a un Fondo de Seguridad de la IA para apoyar la iniciativa.
El Foro de Modelos Fronterizos se creó con el objetivo de establecer normas de seguridad de la IA y evaluar los modelos fronterizos para garantizar un desarrollo responsable. Parece que el grupo se ha puesto por fin manos a la obra, ya que anunciado Chris Meserole como primer Director Ejecutivo
Meserole cuenta con sólidas credenciales en el campo de la IA, ya que recientemente ha sido Director de la Iniciativa sobre Inteligencia Artificial y Tecnologías Emergentes de la Brookings Institution.
En una declaración sobre su nuevo nombramiento, Meserols afirmó: "Los modelos de IA más potentes encierran una enorme promesa para la sociedad, pero para hacer realidad su potencial necesitamos comprender mejor cómo desarrollarlos y evaluarlos de forma segura. Me entusiasma asumir ese reto con el Frontier Model Forum".
La misión del foro es:
- Impulsar la investigación sobre la seguridad de la IA para promover el desarrollo responsable de modelos de vanguardia y minimizar los riesgos potenciales.
- Identificar las mejores prácticas de seguridad para los modelos fronterizos
- Compartir conocimientos con responsables políticos, académicos, sociedad civil y otros agentes para avanzar en el desarrollo responsable de la IA.
- Apoyar los esfuerzos por aprovechar la IA para abordar los mayores retos de la sociedad.
El AI Safety Fund se creó para financiar la iniciativa con una cantidad inicial de $10m procedente de Anthropic, Google, Microsoft y OpenAI, así como de algunos otros filántropos.
Hoy lanzamos un nuevo Fondo de Seguridad de la IA del Frontier Model Forum: un compromiso de @Google, @AnthropicAI, @Microsoft y @OpenAI de más de $10 millones para avanzar en la investigación independiente que ayude a probar y evaluar los modelos de IA más capaces. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25 de octubre de 2023
Uno de los principales objetivos declarados del Foro Frontier Model es "colaborar entre sectores". Algo que puede obstaculizar sus ambiciones de colaboración es la notable ausencia de Meta.
A principios de este año, el Foro firmó en la Casa Blanca unos compromisos voluntarios en materia de IA. Incluso en ausencia de Meta, es posible que el grupo tenga suficiente peso como para establecer normas de IA que podrían adoptarse de forma más generalizada.
Queda por ver cómo estas normas acaban convirtiéndose en legislación. Con disensiones en torno a áreas clave como los datos de formación o la riesgos potenciales asociados a los modelos de código abiertova a ser difícil encontrar un consenso.