El Ejército de EE.UU. experimenta con tácticas de combate controladas por GPT-4

6 de marzo de 2024

wargame AI

El ejército estadounidense está probando a integrar chatbots de inteligencia artificial en su planificación estratégica, aunque dentro de los límites de una simulación de juego de guerra basada en el popular videojuego Starcraft II. 

Este estudiardirigido por el Laboratorio de Investigación del Ejército de Estados Unidos, analiza las estrategias de campo de batalla GPT-4 Turbo y GPT-4 Vision de OpenAI. 

Esto forma parte de la colaboración con el Departamento de Defensa (DOD) tras el establecimiento de la grupo de trabajo sobre IA generativa el año pasado. 

El uso de la IA en el campo de batalla es acaloradamente debatidocon un reciente estudio similar sobre juegos de guerra con IA descubriendo que los LLM como el GPT-3.5 y el GPT-4 tienden a intensificar las tácticas diplomáticas, lo que a veces desemboca en una guerra nuclear. 

Esta nueva investigación del ejército estadounidense utilizó Starcraft II para simular un escenario de campo de batalla en el que participaban un número limitado de unidades militares.

Los investigadores bautizaron este sistema como "COA-GPT", siendo COA el término militar "Cursos de Acción", que describe esencialmente las tácticas militares. 

El COA-GPT asumió el papel de ayudante del comandante militar, encargado de idear estrategias para aniquilar a las fuerzas enemigas y capturar puntos estratégicos. 

Juego de guerra de IA
COA-GPT es un sistema de apoyo a la toma de decisiones basado en IA que ayuda al personal de mando y control a desarrollar cursos de acción (COA). Utiliza LLM limitados por directrices predefinidas. El personal de mando y control introduce información sobre la misión y COA-GPT genera posibles COA. A través de un proceso iterativo que utiliza lenguaje natural, los operadores humanos y COA-GPT colaboran para refinar y seleccionar el COA más adecuado para los objetivos de la misión. Fuente: ArXiv.

Los investigadores señalan que el COA tradicional es notoriamente lento y laborioso. COA-GPT toma decisiones en cuestión de segundos e integra los comentarios humanos en el proceso de aprendizaje de la IA. 

Wargame AI
Ilustra el proceso iterativo de desarrollo de Cursos de Acción (COAs) con aportación humana. En (a), COA-GPT genera un COA inicial sin guía humana, mostrando movimientos de fuerzas (flechas azules) a través de puentes y directivas de enfrentamiento (flechas rojas) contra unidades hostiles. El panel (b) muestra el COA después de que un comandante humano lo ajuste, especificando que las fuerzas de aviación amigas deben enfrentarse directamente a la aviación hostil. Finalmente, (c) demuestra un mayor refinamiento del COA, con las fuerzas dividiéndose para enfrentarse tanto a las artillerías enemigas como a las unidades de reconocimiento que reciben órdenes de avanzar hacia el puente norte. Fuente: ArXiv.

COA-GPT supera a otros métodos, pero tiene un coste

COA-GPT demostró un rendimiento superior al de los métodos existentes y superó a éstos en la generación de COA estratégicos, y podía adaptarse a las reacciones en tiempo real. 

Sin embargo, había fallos. En particular, el COA-GPT sufrió un mayor número de bajas en el cumplimiento de los objetivos de la misión.

El estudio afirma: "Observamos que el COA-GPT y el COA-GPT-V, incluso cuando se mejoran con retroalimentación humana exhiben mayores bajas de fuerzas amigas en comparación con otras líneas de base".

¿Disuade esto a los investigadores? Parece que no.

El estudio afirma: "En conclusión, COA-GPT representa un enfoque transformador en las operaciones militares de C2, facilitando una toma de decisiones más rápida y ágil y manteniendo una ventaja estratégica en la guerra moderna".

Es preocupante que un sistema de IA que causó más bajas innecesarias que el de referencia se defina como un "enfoque transformador."

El Departamento de Defensa ya ha identificado otras vías para explorar los usos militares de la IA, pero la preparación de la tecnología y sus implicaciones éticas son motivo de preocupación. 

Por ejemplo, ¿quién es responsable cuando los militares Las aplicaciones de IA salen mal? ¿Los promotores? ¿El responsable? ¿O alguien más abajo en la cadena?

Los sistemas de guerra de IA ya están desplegados en los conflictos de Ucrania y Palestina-Israel, pero estas cuestiones siguen sin ponerse a prueba.

Esperemos que siga siendo así.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales