Empresas tecnológicas de todo el mundo se comprometen a cumplir nuevas normas voluntarias

21 de mayo de 2024

  • 16 empresas tecnológicas internacionales aplican un nuevo marco de seguridad
  • Esto se produce mientras eminentes investigadores advierten de los posibles "riesgos extremos" de la IA
  • En la Cumbre sobre Seguridad de la IA de Seúl, 10 países crean una red de seguridad de la IA
Seguridad de la IA

Las principales empresas de Inteligencia Artificial han aceptado una nueva serie de compromisos voluntarios en materia de seguridad, anunciados por los gobiernos británico y surcoreano antes de una cumbre de dos días sobre Inteligencia Artificial celebrada en Seúl.

16 empresas tecnológicas optaron al marco, entre ellas AmazonGoogle, Meta, Microsoft, OpenAIxAI y Zhipu AI.

Es el primer marco acordado por empresas de Norteamérica, Europa, Oriente Medio (The Technology Innovation Institute) y Asia, incluida China (Zhipu AI). 

Entre los compromisos, las empresas se comprometen a "no desarrollar ni implantar un modelo en absoluto" si no se pueden gestionar los riesgos graves.

Las empresas también acordaron publicar cómo medirán y mitigarán los riesgos asociados a los modelos de IA.

En nuevos compromisos se producen después de que eminentes investigadores en IA, entre ellos Yoshua Bengio, Geoffrey Hinton, Andrew Yao y Yuval Noah Harari, publicaran un papel en Ciencia denominada Gestionar los riesgos extremos de la IA en medio del rápido progreso.

Ese documento formulaba varias recomendaciones que ayudaron a orientar el nuevo marco de seguridad:

  • Supervisión y honradez: Desarrollar métodos para garantizar que los sistemas de IA sean transparentes y produzcan resultados fiables.
  • Robustez: Garantizar que los sistemas de IA se comporten de forma predecible en situaciones nuevas.
  • Interpretabilidad y transparencia: Comprender los procesos de toma de decisiones de la IA.
  • Desarrollo inclusivo de la IA: Atenuar los prejuicios e integrar valores diversos.
  • Evaluación de acciones peligrosas: Desarrollo de métodos rigurosos para evaluar las capacidades de la IA y predecir los riesgos antes de su implantación.
  • Evaluación de la alineación de la IA: Garantizar que los sistemas de IA se ajustan a los objetivos previstos y no persiguen objetivos perjudiciales.
  • Evaluación de riesgos: Evaluación exhaustiva de los riesgos sociales asociados al despliegue de la IA.
  • Resiliencia: Creación de defensas contra amenazas basadas en la IA, como los ciberataques y la manipulación social.

Anna Makanju, Vicepresidenta de Asuntos Mundiales de OpenAIsobre las nuevas recomendaciones: "El campo de la seguridad de la IA está evolucionando rápidamente, y nos complace especialmente respaldar el énfasis de los compromisos en el perfeccionamiento de los enfoques junto con la ciencia. Seguimos comprometidos a colaborar con otros laboratorios de investigación, empresas y gobiernos para garantizar que la IA sea segura y beneficie a toda la humanidad."

Michael Sellitto, Jefe de Asuntos Mundiales de AnthropicEl compromiso de Frontier AI con la seguridad subraya la importancia de un desarrollo seguro y responsable de los modelos fronterizos. Como organización centrada en la seguridad, hemos convertido en una prioridad la aplicación de políticas rigurosas, la realización de amplios equipos rojos y la colaboración con expertos externos para garantizar que nuestros modelos sean seguros. Estos compromisos son un importante paso adelante para fomentar el desarrollo y la implantación responsables de la IA."

Otro marco voluntario

Esto refleja los "compromisos voluntarios" contraídos en la Casa Blanca en julio del año pasado por Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft y OpenAI fomentar el desarrollo seguro y transparente de la tecnología de IA. 

Estas nuevas normas establecen que las 16 empresas "proporcionarán transparencia pública" sobre sus medidas de seguridad, excepto cuando hacerlo pueda aumentar los riesgos o divulgar información comercial sensible de forma desproporcionada con respecto a los beneficios sociales.

Rishi Sunak, Primer Ministro del Reino Unido, ha declarado: "Es una primicia mundial que tantas empresas líderes en IA de tantas partes distintas del planeta se pongan de acuerdo para asumir los mismos compromisos en materia de seguridad de la IA." 

Se trata de una primicia mundial porque empresas de fuera de Europa y Norteamérica, como la china Zhipu.ai, se unió a ella. 

Sin embargo, los compromisos voluntarios con la seguridad de la IA están de moda desde hace tiempo.

Las empresas de IA corren poco riesgo de aceptarlas, ya que no hay medios para hacerlas cumplir. Eso también indica lo poco contundentes que son a la hora de la verdad. 

Dan Hendrycks, asesor de seguridad de la startup xAI de Elon Musk, señaló que los compromisos voluntarios ayudarían a "sentar las bases de una regulación nacional concreta."

Un comentario justo, pero, según admiten algunos destacados investigadores, aún no hemos "sentado las bases" cuando los riesgos extremos llaman a la puerta. 

No todo el mundo está de acuerdo lo peligrosa que es realmente la IApero la cuestión sigue siendo que el sentimiento que subyace a estos marcos todavía no se corresponde con las acciones. 

Los países crean una red de seguridad para la IA

Con motivo de la celebración en Seúl (Corea del Sur) de esta pequeña cumbre sobre seguridad de la IA, diez países y la Unión Europea (UE) han acordado crear una red internacional de "Institutos de Seguridad de la IA" con respaldo público.

El "Declaración de intenciones de Seúl para la cooperación internacional en ciencia de la seguridad de la IA"En el acuerdo participan países como el Reino Unido, Estados Unidos, Australia, Canadá, Francia, Alemania, Italia, Japón, Corea del Sur, Singapur y la UE. 

China estuvo notablemente ausente del acuerdo. Sin embargo, el gobierno chino participó, y la empresa china Zhipu.ai suscribió el marco descrito anteriormente. 

China ya ha manifestado anteriormente su voluntad de cooperar en materia de seguridad de la IA y ha estado en conversaciones "secretas" con el US.

Este cumbre intermedia más pequeña se celebró con menos fanfarria que la primera, que tuvo lugar en el Parque Bletchley del Reino Unido el pasado mes de noviembre. 

Sin embargo, varias figuras conocidas de la tecnología se unieron, incluyendo a Elon Musk, el ex CEO de Google Eric Schmidt, y DeepMind fundador Sir Demis Hassabis.

En los próximos días saldrán a la luz más compromisos y conversaciones.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales