OpenAI a modifié ses politiques d'utilisation pour permettre à ses produits d'IA d'être utilisés dans certaines applications militaires, l'entreprise s'engageant avec le Pentagone sur plusieurs projets.
OpenAI travaille sur plusieurs projets du ministère de la défense, notamment sur les capacités de cybersécurité et les méthodes de prévention du suicide des anciens combattants. Elle aide également la DARPA dans le cadre de son AI Cyber Challenge, qui vise à trouver et à corriger automatiquement les vulnérabilités des logiciels et à défendre les infrastructures critiques contre les cyberattaques.
L'engagement d'OpenAI auprès de l'armée américaine s'écarte de sa politique antérieure qui consistait à interdire l'utilisation militaire de ses produits. Jusqu'à il y a quelques jours, sa page sur les politiques d'utilisation mentionnait "militaire et guerre" dans la liste des applications interdites.
Les conditions mises à jour ne mentionnent plus le terme "militaire", mais précisent que les outils ne peuvent être utilisés pour nuire à quiconque ou pour développer des armes.
Dans un entretien accordé à Bloomberg House lors du Forum économique mondial de Davos, Anna Makanju, vice-présidente des affaires internationales d'OpenAI, a déclaré : "Étant donné que nous avions auparavant ce qui était essentiellement une interdiction générale des activités militaires, de nombreuses personnes pensaient que cela interdirait bon nombre de ces cas d'utilisation, qui, selon nous, correspondent tout à fait à ce que nous voulons voir dans le monde."
Les employés des grandes entreprises technologiques de la Silicon Valley ont souvent été réticents à l'idée de voir leurs efforts d'ingénierie utilisés dans des applications militaires.
En 2019, les employés de Microsoft ont signé une lettre protestant contre le contrat de $480 millions d'euros conclu par l'entreprise pour fournir des casques de réalité augmentée à l'armée américaine. L'année dernière, les employés de Google et de Microsoft ont protesté contre un projet commun qui verrait les entreprises fournir des services d'informatique en nuage au gouvernement et à l'armée israéliens.
Un porte-parole d'OpenAI a déclaré à CNB : "Notre politique n'autorise pas l'utilisation de nos outils pour nuire à des personnes, développer des armes, surveiller des communications, blesser d'autres personnes ou détruire des biens. Il existe cependant des cas d'utilisation liés à la sécurité nationale qui correspondent à notre mission."
Si cette mission consiste à faire gagner de l'argent aux actionnaires, alors OpenAI a peut-être fait le premier pas sur une pente glissante. Pourrait-on assister à l'apparition de "WarGPT" à l'avenir ?
En novembre, la secrétaire adjointe à la défense, Kathleen Hicks, a déclaré que l'IA était "un élément clé de l'approche globale de l'innovation, centrée sur le combattant, que le secrétaire Austin et moi-même avons mise en œuvre dès le premier jour".
Il semble inévitable que l'IA soit utilisée dans un large éventail d'applications militaires, y compris les armes. La question est de savoir quels modèles d'IA se trouveront sous le capot.