Las grandes empresas tecnológicas de IA lanzan un fondo de seguridad de IA de $10 millones

25 de octubre de 2023

IA Generativa

Anthropic, Google, Microsoft y OpenAI lanzaron el Frontier Model Forum en julio y ahora han comprometido $10m a un Fondo de Seguridad de la IA para apoyar la iniciativa.

El Foro de Modelos Fronterizos se creó con el objetivo de establecer normas de seguridad de la IA y evaluar los modelos fronterizos para garantizar un desarrollo responsable. Parece que el grupo se ha puesto por fin manos a la obra, ya que anunciado Chris Meserole como primer Director Ejecutivo

Meserole cuenta con sólidas credenciales en el campo de la IA, ya que recientemente ha sido Director de la Iniciativa sobre Inteligencia Artificial y Tecnologías Emergentes de la Brookings Institution.

En una declaración sobre su nuevo nombramiento, Meserols afirmó: "Los modelos de IA más potentes encierran una enorme promesa para la sociedad, pero para hacer realidad su potencial necesitamos comprender mejor cómo desarrollarlos y evaluarlos de forma segura. Me entusiasma asumir ese reto con el Frontier Model Forum".

La misión del foro es:

  • Impulsar la investigación sobre la seguridad de la IA para promover el desarrollo responsable de modelos de vanguardia y minimizar los riesgos potenciales.
  • Identificar las mejores prácticas de seguridad para los modelos fronterizos
  • Compartir conocimientos con responsables políticos, académicos, sociedad civil y otros agentes para avanzar en el desarrollo responsable de la IA.
  • Apoyar los esfuerzos por aprovechar la IA para abordar los mayores retos de la sociedad.

El AI Safety Fund se creó para financiar la iniciativa con una cantidad inicial de $10m procedente de Anthropic, Google, Microsoft y OpenAI, así como de algunos otros filántropos.

Uno de los principales objetivos declarados del Foro Frontier Model es "colaborar entre sectores". Algo que puede obstaculizar sus ambiciones de colaboración es la notable ausencia de Meta.

A principios de este año, el Foro firmó en la Casa Blanca unos compromisos voluntarios en materia de IA. Incluso en ausencia de Meta, es posible que el grupo tenga suficiente peso como para establecer normas de IA que podrían adoptarse de forma más generalizada.

Queda por ver cómo estas normas acaban convirtiéndose en legislación. Con disensiones en torno a áreas clave como los datos de formación o la riesgos potenciales asociados a los modelos de código abiertova a ser difícil encontrar un consenso.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales