OpenAI ha firmado un acuerdo pionero con el Gobierno de Estados Unidos para colaborar en la investigación y evaluación de la seguridad de la IA.
El jueves, la Instituto de Seguridad de la Inteligencia ArtificialEl Instituto Nacional de Normas y Tecnología (NIST) ha anunciado que ha llegado a acuerdos tanto con OpenAI como con su rival Anthropic.
El acuerdo se produce en un momento en el que, según se informa, la empresa está en conversaciones para recaudar fondos con una asombrosa valoración de $100.000 millones, lo que demuestra que, a pesar de un periodo de progreso más lento, OpenAI sigue avanzando con paso firme hacia el futuro.
Las asociaciones darán al Gobierno acceso interno a los principales modelos de IA antes y después de su lanzamiento público, aunque es difícil saber exactamente en qué consiste.
Es justo decir que ni siquiera los propios desarrolladores de IA comprenden realmente cómo funcionan sus modelos, por lo que lo que el NIST puede ganar podría ser limitado. No obstante, esto supone un intento de profundizar en la supervisión gubernamental de los secretos modelos de IA de frontera.
nos complace haber llegado a un acuerdo con el US AI Safety Institute para las pruebas previas al lanzamiento de nuestros futuros modelos.
Por muchas razones, creemos que es importante que esto ocurra a nivel nacional. US ¡necesita seguir liderando!
- Sam Altman (@sama) 29 de agosto de 2024
"Una IA segura y digna de confianza es crucial para el impacto positivo de la tecnología", dijo Jason Kwon, director de estrategia de OpenAI. "Creemos que el instituto tiene un papel fundamental a la hora de definir el liderazgo de Estados Unidos en el desarrollo responsable de la inteligencia artificial".
Elizabeth Kelly, directora del Instituto de Seguridad de la IA de EE.UU., calificó los acuerdos de "hito importante en nuestro trabajo para ayudar a dirigir de forma responsable el futuro de la IA".
En virtud de este acuerdo, el instituto proporcionará información a OpenAI sobre posibles mejoras de seguridad de sus modelos, trabajando en estrecha colaboración con el Instituto de Seguridad de la IA del Reino Unido, que también ha participado en el proyecto. acceso solicitado al funcionamiento interno de los modelos de IA.
Los acuerdos se han hecho esperar en los esfuerzos de la administración Biden por regular la IA. Aespués de que Biden orden ejecutivafirmado en octubre de 2023, la gobernanza de la IA en EE.UU. se ha puesto lentamente en marcha, aunque algunos sostienen que los avances han dejado mucho que desear.
El momento elegido para el acuerdo es digno de mención por dos razones. En primer lugar, se produce cuando OpenAI está en conversaciones para recaudar una nueva ronda de financiación que valoraría la empresa en más de $100.000 millones.
Esta astronómica cifra representa un aumento de más del triple con respecto a la valoración de $29 mil millones comunicada el año pasado.
Según fuentes familiarizadas con el asunto, la empresa de capital riesgo Thrive Capital liderará la ronda con una inversión de 1.400 millones de euros. El gigante tecnológico Microsoft, que ya es el mayor patrocinador de OpenAI, también participará en la financiación.
En segundo lugar, OpenAI está a punto de lanzar un nuevo producto, GPT -5, BúsquedaGPTo alguna otra iteración que implique un nombre en clave "Proyecto Fresa."
El proyecto Strawberry, inicialmente denominado Q*, combina supuestamente un modelo de IA con un agente autónomo capaz de navegar por Internet.
Según los informes, OpenAI hizo una demostración de Strawberry a los responsables de seguridad estadounidenses, que podría haber formado parte de este nuevo acuerdo con el AI Safety Institute y el NIST.
En general, OpenAI ha estado bastante tranquilo. GPT-4o se presentó como un gran avance, pero su joya de la corona, la función de chat de voz, aún no se ha implantado en masa. OpenAI aduce barreras normativas y de seguridad como motivo del retraso.
¿Es posible que OpenAI se asocie para evitar estos problemas en el futuro?