Violación de datos de OpenAI: lo que sabemos, riesgos y lecciones para el futuro

7 de julio de 2024

  • OpenAI sufrió una filtración de datos el año pasado, pero no se supo hasta hace poco
  • Las empresas de IA poseen grandes volúmenes de datos sensibles y muy valiosos
  • A los expertos les preocupa que esto les deje expuestos a ataques de agentes extranjeros.
Seguridad de la IA

Una brecha de seguridad en OpenAI puso de manifiesto que las empresas de IA son objetivos lucrativos para los piratas informáticos. 

La brecha, que se produjo a principios del año pasado y fue informó recientemente por el New York Times, implicaba a un hacker que accedía a los sistemas de mensajería interna de la empresa. 

El pirata informático obtuvo detalles de las conversaciones de los empleados sobre las últimas tecnologías de OpenAI. Esto es lo que sabemos:

  • La brecha se produjo a principios del año pasado e implicó el acceso de un pirata informático a los sistemas de mensajería interna de OpenAI.
  • El hacker se infiltró en un foro en línea donde los empleados de OpenAI discutían abiertamente las últimas tecnologías y desarrollos de IA de la empresa.
  • La filtración puso al descubierto discusiones internas entre investigadores y empleados, pero no comprometió el código de los sistemas de IA de OpenAI ni ningún dato de clientes.
  • Los ejecutivos de OpenAI revelaron el incidente a los empleados durante una reunión de todos los empleados en las oficinas de la empresa en San Francisco en abril de 2023 e informaron a su consejo de administración.
  • La empresa decidió no revelar públicamente la filtración, ya que consideraba que no se había robado información sobre clientes o socios y que el pirata informático era un particular sin vínculos conocidos con un gobierno extranjero.
  • Leopold Aschenbrenner, antiguo director del programa técnico de OpenAI, envió un memorándum al consejo de administración de la empresa tras la filtración, argumentando que OpenAI no estaba haciendo lo suficiente para evitar que gobiernos extranjeros robaran sus secretos.
  • Aschenbrenner, que afirma que fue despedido por filtrar información fuera de la empresa, declaró en un podcast reciente que las medidas de seguridad de OpenAI eran insuficientes para protegerse del robo de secretos clave por parte de agentes extranjeros.
  • OpenAI ha rebatido la caracterización que Aschenbrenner hizo del incidente y de sus medidas de seguridad, afirmando que sus preocupaciones no condujeron a su separación de la empresa.

¿Quién es Leopold Aschenbrenner?

Leopold Aschenbrenner es un antiguo investigador de seguridad de OpenAI del equipo de superalineación de la empresa.

El equipo de superalineación, centrado en la seguridad a largo plazo de la inteligencia general artificial avanzada (AGI), recientemente se vino abajo cuando varios investigadores de alto nivel abandonaron la empresa.

Entre ellos se encontraba el cofundador de OpenAI, Ilya Sutskever, que ha creado recientemente una nueva empresa denominada Safe Superintelligence Inc.

Aschenbrenner escribió el año pasado un memorándum interno en el que detallaba su preocupación por las prácticas de seguridad de OpenAI, que calificaba de "atrozmente insuficientes".

Hizo circular el memorándum entre reputados expertos ajenos a la empresa. Semanas después, OpenAI sufrió la filtración de datos, por lo que compartió una versión actualizada con los miembros del consejo. Poco después, fue despedido de OpenAI.

"Lo que también podría ser un contexto útil es el tipo de preguntas que me hicieron cuando me despidieron... las preguntas eran sobre mis puntos de vista sobre el progreso de la IA, sobre la AGI, el nivel apropiado de seguridad para la AGI, si el gobierno debería involucrarse en la AGI, si yo y el equipo de superalineación éramos leales a la empresa, y qué me traía entre manos durante los eventos de la junta de OpenAI", reveló Aschenbrenner en un podcast.

"Otro ejemplo es cuando planteo cuestiones de seguridad: me dicen que la seguridad es nuestra prioridad número uno", afirma Aschenbrenner. "Invariablemente, cuando llegaba el momento de invertir recursos serios o hacer concesiones para tomar medidas básicas, no se daba prioridad a la seguridad".

OpenAI ha rebatido la caracterización del incidente por parte de Aschenbrenner y sus medidas de seguridad. "Apreciamos las preocupaciones que Leopold planteó mientras estaba en OpenAI, y esto no condujo a su separación", respondió Liz Bourgeois, portavoz de OpenAI.

"Aunque compartimos su compromiso de construir una A.G.I. segura, no estamos de acuerdo con muchas de las afirmaciones que ha hecho desde entonces sobre nuestro trabajo".

Las empresas de IA se convierten en objetivo de los hackers

No cabe duda de que las empresas de IA son un objetivo atractivo para los piratas informáticos debido al colosal volumen de datos valiosos de los que son depositarias. 

Estos datos se dividen en tres categorías principales: conjuntos de datos de formación de alta calidad, registros de interacción de los usuarios e información confidencial de los clientes.

Basta con considerar el valor de cualquiera de esas categorías.

Para empezar, los datos de formación son el nuevo petróleo. Aunque es relativamente fácil recuperar algunos datos de bases de datos públicas como LAIONhay que revisarlo, limpiarlo y aumentarlo.

Esto requiere mucho trabajo. Las empresas de IA han grandes contratos con empresas de datos que prestan estos servicios en África, Asia y Sudamérica.

Luego, hay que tener en cuenta los datos que las empresas de IA recopilan de los usuarios. 

Esto es especialmente valioso para los hackers si se tiene en cuenta la información financiera, el código y otras formas de propiedad intelectual que las empresas podrían compartir con las herramientas de IA. 

Un reciente informe sobre ciberseguridad descubrió que más de la mitad de las interacciones de la gente con chatbots como ChatGPT incluyen información sensible de identificación personal (PII). Otro descubrió que 11% de empleados compartir información comercial confidencial con ChatGPT. 

Además, a medida que más empresas integran herramientas de IA en sus operaciones, a menudo necesitan conceder acceso a sus bases de datos internas, lo que aumenta aún más los riesgos de seguridad. 

En definitiva, es una carga enorme para las empresas de IA. Y como la carrera armamentística de la IA se intensifica, con países como China acortando rápidamente distancias con EE.UU., la superficie de amenaza no hará sino seguir ampliándose. 

Más allá de estos susurros de OpenAI, aún no hemos visto pruebas de ninguna brecha de alto perfil, pero probablemente sea sólo cuestión de tiempo. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales