Le ministère américain de la défense a annoncé la création d'un groupe de travail chargé de concevoir des outils d'IA générative à des fins de défense.
Doublé Task Force LimaL'objectif principal de ce projet est "d'évaluer, de synchroniser et d'utiliser les capacités d'IA générative" dans l'ensemble du secteur de la défense. Cette initiative vise à renforcer la position des États-Unis en tant que leader dans le domaine de l'IA.
Kathleen Hicks, secrétaire adjointe à la défense, a créé ce groupe de travail, qui travaillera sous la direction de Craig Martell, responsable en chef du numérique et de l'intelligence artificielle au sein du ministère.
M. Martell a souligné les menaces et les défis liés à l'utilisation de l'IA générative pour des applications militaires : "Nous devons identifier les mesures de protection appropriées et atténuer les risques pour la sécurité nationale qui peuvent résulter de problèmes tels que des données d'entraînement mal gérées."
Il a également souligné l'importance de savoir comment les adversaires des États-Unis pourraient adopter la technologie.
Les applications de l'IA sont également déployées pour protéger les infrastructures et les systèmes critiques - le gouvernement américain a récemment annoncé la mise en place d'un système de gestion de l'information. Le défi de la cybersécurité centrée sur l'IA avec une cagnotte de $20m pour alimenter le développement vers cet objectif.
Le capitaine de la marine américaine M. Xavier Lugo, commandant de la mission Task Force Lima et membre de la direction de la guerre algorithmique du CDAO, a déclaré : "L'adoption de l'intelligence artificielle dans le domaine de la défense n'est pas seulement une question de technologie innovante, mais aussi de renforcement de la sécurité nationale."
Le rôle croissant de l'IA sur le champ de bataille
L'IA a déjà été testée dans la prise de décision sur le champ de bataille, tant par les États-Unis que par l'Union européenne. Gouvernements israéliensau moins.
Colonel Matthew Strohmeyer de l'armée de l'air américaine a révélé à Bloomberg que des tests en direct ont été effectués sur des modèles d'IA générative afin d'évaluer leur potentiel dans les processus de prise de décision. À propos du test d'IA, il a déclaré : "Il a été couronné de succès. Il a été très rapide."
L'armée de l'air américaine a également annoncé la réussite d'un Vol d'essai propulsé par l'IA avec un avion sans pilote, et Bonnie Jenkins, sous-secrétaire d'État au contrôle des armes et à la sécurité internationale, a souligné le potentiel de transformation de l'IA pour les armées mondiales, en faisant référence à l'utilisation de l'IA par l'armée ukrainienne pour l'analyse du champ de bataille.
En février, M. Jenkins a déclaré : "En tant que technologie en évolution rapide, nous avons l'obligation de créer des normes strictes de comportement responsable concernant les utilisations militaires de l'IA".
L'intégration de l'IA dans les systèmes militaires a suscité de sérieuses préoccupations éthiques. Qui est responsable de l'IA si elle tourne mal dans de telles situations, par exemple si des drones entièrement autonomes tuent des civils ?
Les drones hautement sophistiqués peuvent-ils se retourner contre leurs opérateurs au nom du "bien commun" ?
Jusqu'à présent, des preuves expérimentales ont démontré la capacité de l'IA à établir des relations de confiance avec les autres. objectifs émergents imprévisibles qui mettent l'humanité en danger.
Les armées doivent garder une longueur d'avance sur l'IA, au moins pour développer des méthodes sûres de déploiement de la technologie sur le champ de bataille.