OpenAI ha modificado sus políticas de uso para permitir que sus productos de IA se utilicen en algunas aplicaciones militares, ya que la empresa colabora con el Pentágono en varios proyectos.
OpenAI trabaja en varios proyectos del Departamento de Defensa, entre ellos capacidades de ciberseguridad y métodos para ayudar a prevenir el suicidio de veteranos. También está ayudando a DARPA con su AI Cyber Challenge para encontrar y corregir automáticamente vulnerabilidades de software y defender infraestructuras críticas de ciberataques.
El compromiso de OpenAI con el ejército estadounidense supone un cambio con respecto a su anterior política de prohibir el uso militar de sus productos. Hasta hace unos días, su página de políticas de uso incluía "militar y bélico" en la lista de aplicaciones no permitidas.
Los términos actualizados ya no mencionan la palabra militar, pero siguen diciendo que sus herramientas no pueden utilizarse para causar daño a nadie ni para desarrollar armas.
En una entrevista en Bloomberg House, en el Foro Económico Mundial de Davos, Anna Makanju, vicepresidenta de asuntos globales de OpenAI, dijo: "Debido a que anteriormente teníamos lo que era esencialmente una prohibición general de lo militar, mucha gente pensó que eso prohibiría muchos de estos casos de uso, que la gente piensa que están muy alineados con lo que queremos ver en el mundo."
Los empleados de Silicon Valley en las grandes empresas tecnológicas a menudo se han resistido a ver sus esfuerzos de ingeniería utilizados en aplicaciones militares.
En 2019, los empleados de Microsoft firmaron una carta protestando por el contrato de $480m de la compañía para suministrar al Ejército de Estados Unidos auriculares de realidad aumentada. El año pasado, empleados de Google y Microsoft protestaron por un proyecto conjunto por el que ambas empresas prestarían servicios de computación en la nube al gobierno y el ejército israelíes.
Un portavoz de OpenAI dijo a CNB: "Nuestra política no permite que nuestras herramientas se utilicen para hacer daño a las personas, desarrollar armas, para la vigilancia de las comunicaciones o para herir a otros o destruir propiedades. Hay, sin embargo, casos de uso de seguridad nacional que se alinean con nuestra misión."
Si esa misión incluye ganar dinero para los accionistas, entonces OpenAI puede haber dado el primer paso hacia una pendiente resbaladiza. ¿Podríamos ver "WarGPT" en el futuro?
En noviembre, la Vicesecretaria de Defensa, Kathleen Hicks, afirmó que la IA es "una parte clave del enfoque global de la innovación centrado en el combatiente que la Secretaria Austin y yo hemos impulsado desde el primer día".
Parece inevitable que la IA se utilice en una amplia gama de aplicaciones militares, incluidas las armas. La pregunta es: ¿de quién serán los modelos de IA que habrá bajo el capó?