L'armée américaine expérimente des tactiques de combat contrôlées par le GPT-4

6 mars 2024

wargame AI

L'armée américaine tente d'intégrer des chatbots dans sa planification stratégique, mais dans le cadre d'une simulation de jeu de guerre basée sur le célèbre jeu vidéo Starcraft II. 

Le présent étudedirigée par le laboratoire de recherche de l'armée américaine, analyse les stratégies GPT-4 Turbo et GPT-4 Vision d'OpenAI sur le champ de bataille. 

Cela fait partie de l'initiative de l'OpenAI collaboration avec le ministère de la défense (DOD) à la suite de la mise en place de la Groupe de travail sur l'IA générative l'année dernière. 

L'utilisation de l'IA sur le champ de bataille est vivement débattu, avec un une étude similaire récente sur les jeux de guerre utilisant l'IA qui a constaté que les LLM tels que GPT-3.5 et GPT-4 ont tendance à intensifier les tactiques diplomatiques, aboutissant parfois à une guerre nucléaire. 

Cette nouvelle recherche de l'armée américaine a utilisé Starcraft II pour simuler un scénario de champ de bataille impliquant un nombre limité d'unités militaires.

Les chercheurs ont baptisé ce système "COA-GPT", COA étant l'abréviation du terme militaire "Courses of Action", qui décrit essentiellement les tactiques militaires. 

COA-GPT a assumé le rôle d'assistant du commandant militaire, chargé d'élaborer des stratégies pour anéantir les forces ennemies et s'emparer des points stratégiques. 

Jeu d'IA
COA-GPT est un système d'aide à la décision basé sur l'IA qui assiste le personnel de commandement et de contrôle dans l'élaboration de plans d'action (COA). Il utilise des LLM contraints par des lignes directrices prédéfinies. Le personnel de commandement et de contrôle saisit les informations relatives à la mission et COA-GPT génère des plans d'action potentiels. Grâce à un processus itératif utilisant le langage naturel, les opérateurs humains et COA-GPT collaborent pour affiner et sélectionner le plan d'action le mieux adapté aux objectifs de la mission. Source : ArXiv.

Les chercheurs notent que l'ACO traditionnelle est notoirement lente et exigeante en main-d'œuvre. COA-GPT prend des décisions en quelques secondes tout en intégrant le retour d'information humain dans le processus d'apprentissage de l'IA. 

Wargame AI
Illustration du processus itératif d'élaboration de plans d'action (COA) à l'aide de données humaines. Dans le panneau (a), COA-GPT génère un plan d'action initial sans guide humain, affichant des mouvements de forces (flèches bleues) à travers les ponts et des directives d'engagement (flèches rouges) contre les unités hostiles. Le panneau (b) montre le COA après qu'un commandant humain l'ait ajusté, en spécifiant que les forces aériennes amies doivent engager directement l'aviation hostile. Enfin, le panneau (c) montre un affinement supplémentaire de l'ACO, les forces se séparant pour s'attaquer à la fois aux artilleries ennemies et aux unités de reconnaissance recevant l'ordre d'avancer vers le pont nord. Source : ArXiv.

COA-GPT surpasse les autres méthodes, mais cela a un coût

COA-GPT a démontré une performance supérieure aux méthodes existantes, dépassant les méthodes existantes dans la génération de COA stratégiques, et pourrait s'adapter à un retour d'information en temps réel. 

Cependant, il y avait des lacunes. Plus particulièrement, l'ACO-GPT a subi des pertes plus importantes dans l'accomplissement des objectifs de la mission.

L'étude précise : "Nous observons que les modèles COA-GPT et COA-GPT-V, même lorsqu'ils sont améliorés par un retour d'information humain, entraînent un plus grand nombre de pertes au sein des forces amies que les autres modèles de référence".

Cela décourage-t-il les chercheurs ? Apparemment non.

L'étude précise : "En conclusion, COA-GPT représente une approche transformatrice des opérations militaires de C2, facilitant une prise de décision plus rapide et plus agile et maintenant un avantage stratégique dans la guerre moderne".

Il est inquiétant qu'un système d'IA qui a causé plus de pertes inutiles que le système de référence soit défini comme une "approche transformatrice".

La DOD a déjà identifié d'autres pistes pour explorer les utilisations militaires de l'IA, mais des inquiétudes subsistent quant à l'état de préparation de la technologie et à ses implications éthiques. 

Par exemple, qui est responsable lorsque des militaires Les applications de l'IA tournent mal? Les développeurs ? Le responsable ? Ou quelqu'un d'autre ?

Des systèmes de guerre IA sont déjà déployés en Ukraine et dans le conflit israélo-palestinien, mais ces questions n'ont pas encore été testées.

Espérons qu'il en restera ainsi.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation