El Gobierno británico quiere ver el interior de la "caja negra" de la IA

29 de septiembre de 2023

Cumbre sobre seguridad de la IA

El Reino Unido está negociando con grandes empresas tecnológicas, como OpenAI y DeepMind, con el objetivo de conocer mejor la seguridad de sus tecnologías de IA. 

El Reino Unido se prepara para la Cumbre sobre seguridad de la IAEl Gobierno ha expresado su deseo de sondear los modelos de IA y ver el interior de la "caja negra". Fuentes al tanto de las negociaciones revelan que los representantes están buscando activamente permiso para ahondar en el funcionamiento interno de los modelos avanzados de IA.

Los principales desarrolladores de IA son muy cautelosos a la hora de compartir este tipo de información: ¿podrían revelar involuntariamente detalles confidenciales del producto o pruebas de datos de entrenamiento protegidos por derechos de autor?

El gobierno británico argumenta que entender cómo funcionan los modelos avanzados de IA permitirá a las autoridades detectar peligros de forma preventiva, pero no ha explicado con precisión qué es lo que quiere saber. Hay muchos modelos de IA de código abierto que funcionan de forma similar a las IA patentadas como ChatGPT. 

En EE.UU., varios de los principales desarrolladores de IA firmaron un marco voluntario que implicaría que sus modelos se sometieran a pruebas independientes antes de salir a la venta, algo que ya ocurre en China.

A principios de junio, DeepMind, OpenAI y Anthropic llegaron a un acuerdo preliminar para conceder acceso a modelos al gobierno británico con fines de investigación y evaluación de la seguridad. Sin embargo, los detalles de este acceso siguen sin definirse. 

En un comunicado, Anthropic menciona la posibilidad de suministrar el modelo a través de una API (interfaz de programación de aplicaciones) para equilibrar las preocupaciones de ambas partes.

Aunque una API ofrece una visión limitada del funcionamiento del modelo, el Gobierno británico está presionando para obtener un conocimiento "más profundo", según fuentes internas que informan a la Comisión Europea. Financial Times

La gente de DeepMind está de acuerdo en que sería útil acceder a los modelos para investigar la seguridad, pero OpenAI no ha hecho comentarios.

Una fuente cercana al gobierno explicó: "Estas empresas no están poniendo trabas, pero en general es un tema peliagudo y tienen preocupaciones razonables", "No hay ningún botón que estas empresas puedan pulsar para que se haga realidad. Son cuestiones de investigación abiertas y sin resolver". 

La Cumbre sobre Seguridad de la IA que se celebrará en el Reino Unido a principios de noviembre es una respuesta directa a las peticiones de una regulación más estricta de la IA. Se espera la participación de diversas partes interesadas, entre ellas funcionarios chinos. 

Según fuentes internas, el gobierno británico está trabajando para ultimar un acuerdo que se dará a conocer en la cumbre.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales