OpenAI se encuentra en el centro de una investigación del Senado tras las acusaciones de precipitación en las pruebas de seguridad.
Cinco senadores, encabezados por Brian Schatz (demócrata de Hawai), exigieron que la empresa facilitara información detallada sobre sus prácticas de seguridad y acuerdos con los empleados.
La investigación se produce a raíz de un Informe del Washington Post sugiriendo que OpenAI podría haber comprometido los protocolos de seguridad en su prisa por lanzar GPT-4 Omni, su último modelo de IA.
Mientras tanto, los denunciantes, incluidos los investigadores de alto perfil de OpenAI's desmantelado "equipo de superalineación". han expresado su preocupación por los acuerdos restrictivos de confidencialidad de los empleados (NDA).
Carta de los senadores a OpenAI
En una enérgica carta dirigida al Consejero Delegado de OpenAI, Sam Altman, cinco senadores exigen información detallada sobre las prácticas de seguridad de la empresa y el trato que dispensa a sus empleados.
En carta plantea dudas sobre el compromiso de OpenAI con el desarrollo responsable de la IA y sus políticas internas.
"Dada la posición de OpenAI como empresa líder en IA, es importante que el público pueda confiar en la seguridad y protección de sus sistemas", escriben los senadores.
A continuación, cuestionan la "integridad de la estructura de gobierno y las pruebas de seguridad de la empresa, sus prácticas de empleo, su fidelidad a sus promesas públicas y su misión, y sus políticas de ciberseguridad."
Los senadores, encabezados por Brian Schatz (D-Hawaii), han fijado el 13 de agosto como fecha límite para que OpenAI responda a una serie de preguntas concretas. Entre ellas, si la empresa cumplirá su compromiso de dedicar 20% de recursos informáticos a la investigación de la seguridad de la IA y si permitirá que expertos independientes prueben sus sistemas antes de lanzarlos al mercado.
Sobre el tema de los acuerdos restrictivos con los empleados, la carta pide a OpenAI que confirme que "no aplicará acuerdos permanentes de no desacreditación a los empleados actuales y antiguos" y que se comprometa a "eliminar cualquier otra disposición de los acuerdos de empleo que pueda utilizarse para penalizar a los empleados que planteen públicamente sus preocupaciones sobre las prácticas de la empresa."
Más tarde, OpenAI se dirigió a X para tranquilizar al público sobre su compromiso con la seguridad.
"Garantizar que la IA pueda beneficiar a todos empieza por crear una IA que sea útil y segura. Queremos compartir algunas actualizaciones sobre cómo estamos priorizando la seguridad en nuestro trabajo", declaró la empresa en una publicación reciente.
OpenAI hizo hincapié en su Marco de Preparación, diseñado para evaluar y proteger contra los riesgos que plantean los modelos de IA cada vez más potentes.
"No lanzaremos un nuevo modelo si cruza un umbral de riesgo 'medio' hasta que estemos seguros de que podemos hacerlo con seguridad", aseguró la empresa.
En respuesta a las acusaciones de acuerdos restrictivos con los empleados, OpenAI declaró: "Nuestra política de denuncia de irregularidades protege los derechos de los empleados a hacer revelaciones protegidas. También creemos que es importante un debate riguroso sobre esta tecnología y hemos introducido cambios en nuestro proceso de salida para eliminar las cláusulas de no desacreditación."
La empresa también mencionó las medidas adoptadas recientemente para reforzar sus medidas de seguridad.
En mayo, el Consejo de Administración de OpenAI puso en marcha un nuevo comité de Seguridad y Protección, del que forman parte jubilado US General de Ejército Paul Nakasoneexperto en ciberseguridad.
OpenAI mantiene su postura sobre los beneficios de la IA. "Creemos que los modelos de IA de vanguardia pueden beneficiar enormemente a la sociedad", afirma la empresa, al tiempo que reconoce la necesidad de mantener la vigilancia y las medidas de seguridad.
A pesar de algunos avances, las posibilidades de aprobar este año una legislación exhaustiva sobre IA son escasas, ya que la atención se desplaza hacia las elecciones de 2024.
A falta de nuevas leyes del Congreso, la Casa Blanca se ha basado en gran medida en compromisos voluntarios de las empresas de IA para garantizar que crean sistemas de IA seguros y fiables.