El Foro Modelo Frontera: ¿funcionará?

28 de julio de 2023

Google Microsoft

Esta semana, Microsoft, Google, OpenAI y Anthropic han constituido el Frontier Model Forum, dedicado a la seguridad y responsabilidad de la IA. 

El Foro misión incluye la identificación de las mejores prácticas de IA, el apoyo a los sectores público y privado, la colaboración con el mundo académico y el trabajo con los responsables políticos para garantizar que se canalizan los beneficios de la IA y se mitigan sus riesgos.

Esto se produce poco después de que 7 empresas de IA optaran por un marco voluntario de IA esbozado por la Casa Blanca

Este tipo de colaboración entre rivales ha sido relativamente habitual en la floreciente industria de la IA, donde los competidores han compartido ocasionalmente hardware e investigación, pero eso no quiere decir que la verdadera sustancia detrás de los modelos no permanezca bajo llave. 

OpenAI, respaldada por Microsoft colaborar con los rivales de la empresa, Salesforce y Duckduckgo, demostrando que las relaciones en el mundo de la IA son complicadas.

Los expertos creen que el éxito del Foro exige un nivel de colaboración que va más allá de compartir recursos en beneficio mutuo: implica que las empresas de IA revelen su funcionamiento más íntimo. 

Avivah Litan, destacada analista de Gartner, duda de que el Foro logre sus objetivos: "Las posibilidades de que un grupo de competidores acérrimos llegue a una solución común útil y consiga implantarla de forma ubicua -en los modelos de código cerrado y abierto que ellos y otros controlan en todo el mundo- son prácticamente nulas".

El Foro cuenta actualmente con 4 miembros fundadores, pero está abierto a otras organizaciones comprometidas con el desarrollo de modelos seguros y el apoyo a iniciativas más amplias del sector.

Litan se mostró optimista respecto a las empresas una normativa más influyente colectivamente, pero insistió en la necesidad de un organismo regulador internacional que haga cumplir las normas mundiales sobre IA. 

"Dado que aún no hemos sido testigos de una colaboración gubernamental mundial en materia de cambio climático, donde ya se conocen las soluciones, esperar una cooperación de este tipo en materia de IA, con soluciones aún por definir, es aún más difícil. Al menos estas empresas pueden esforzarse por identificar soluciones, y eso es un aspecto positivo", afirmó Litan.

Algunos se muestran optimistas sobre el Foro Modelo Frontera 

La Dra. Kate Devlin, profesora titular de Inteligencia Artificial del King's College de Londres, reconoció los sentimientos positivos del Foro de Modelos Fronterizos. 

"El anuncio parece concentrarse sobre todo en planteamientos técnicos. Sin embargo, a la hora de desarrollar la IA de forma responsable, hay aspectos sociotécnicos más amplios que deben abordarse", dijo el Dr. Devlin. nota

Además, el Foro podría simplificar la cooperación en materia de regulación, garantizando que las normas se apliquen en todo el sector.

Por ejemplo, el Foro se comprometió a apoyar el proceso de IA de Hiroshima del G7, un pacto hecho en la Cumbre del G7 en Japón, solicitando la colaboración con la OCDE y el GPAI. 

Sin apenas normas obligatorias en torno a la IA, la dirección de la tecnología sigue estando en manos de los desarrolladores, que intentan, al menos superficialmente, frenar los riesgos a corto plazo.

Los resultados de los esfuerzos de colaboración, como el Foro, están muy pendientes.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales