O Exército dos EUA experimenta tácticas de campo de batalha controladas por GPT-4

6 de março de 2024

IA de jogos de guerra

O exército dos EUA está a tentar integrar chatbots de IA no seu planeamento estratégico, embora dentro dos limites de uma simulação de jogo de guerra baseada no popular jogo de vídeo Starcraft II. 

Este estudoliderado pelo Laboratório de Investigação do Exército dos EUA, analisa as estratégias de campo de batalha GPT-4 Turbo e GPT-4 Vision da OpenAI. 

Isto faz parte do projeto OpenAI colaboração com o Departamento de Defesa (DOD) na sequência da criação do Grupo de trabalho sobre IA generativa no ano passado. 

A utilização da IA no campo de batalha é muito debatido, com um estudo recente semelhante sobre jogos de guerra com IA constatando que os LLM, como o GPT-3.5 e o GPT-4, tendem a intensificar as tácticas de diplomacia, resultando por vezes numa guerra nuclear. 

Esta nova investigação do exército dos EUA utilizou o Starcraft II para simular um cenário de campo de batalha envolvendo um número limitado de unidades militares.

Os investigadores apelidaram este sistema de "COA-GPT" - com COA a significar o termo militar "Cursos de Ação", que descreve essencialmente as tácticas militares. 

O COA-GPT assumiu o papel de assistente de um comandante militar, encarregado de conceber estratégias para obliterar as forças inimigas e capturar pontos estratégicos. 

Jogo de guerra com IA
O COA-GPT é um sistema de apoio à decisão baseado em IA que ajuda o pessoal de comando e controlo a desenvolver Cursos de Ação (COAs). Utiliza LLMs limitados por directrizes predefinidas. O pessoal de comando e controlo introduz informações sobre a missão e o COA-GPT gera potenciais COAs. Através de um processo iterativo que utiliza linguagem natural, os operadores humanos e o COA-GPT colaboram para aperfeiçoar e selecionar o COA mais adequado para os objectivos da missão. Fonte: ArXiv.

Os investigadores referem que o COA tradicional é notoriamente lento e trabalhoso. O COA-GPT toma decisões em segundos, integrando o feedback humano no processo de aprendizagem da IA. 

IA de jogos de guerra
Ilustra o processo iterativo de desenvolvimento de Cursos de Ação (COAs) com a participação humana. Em (a), o COA-GPT gera um COA inicial sem orientação humana, apresentando movimentos de forças (setas azuis) através de pontes e directivas de combate (setas vermelhas) contra unidades hostis. O painel (b) mostra o COA depois de um comandante humano o ajustar, especificando que as forças de aviação amigas devem atacar diretamente a aviação hostil. Por fim, (c) demonstra um refinamento adicional do COA, com as forças a dividirem-se para enfrentar tanto as artilharias inimigas como as unidades de reconhecimento que recebem ordens para avançar para a ponte norte. Fonte: ArXiv.

O COA-GPT é superior a outros métodos, mas tem um custo

O COA-GPT demonstrou um desempenho superior aos métodos existentes, ultrapassando-os na geração de COAs estratégicos, e pode adaptar-se ao feedback em tempo real. 

No entanto, havia falhas. Em especial, o COA-GPT sofreu mais baixas no cumprimento dos objectivos da missão.

O estudo afirma: "Observamos que o COA-GPT e o COA-GPT-V, mesmo quando melhorados com feedback humano, apresentam maiores baixas de forças amigas em comparação com outras linhas de base".

Será que este facto dissuade os investigadores? Parece que não.

O estudo afirma: "Em conclusão, o COA-GPT representa uma abordagem transformadora nas operações militares de C2, facilitando uma tomada de decisões mais rápida e ágil e mantendo uma vantagem estratégica na guerra moderna".

É preocupante que um sistema de IA que causou mais mortes desnecessárias do que a linha de base seja definido como uma "abordagem transformadora".

O DOD já identificou outras vias para explorar as utilizações militares da IA, mas as preocupações com a prontidão da tecnologia e com as implicações éticas continuam a pairar. 

Por exemplo, quem é responsável quando os militares As aplicações de IA correm mal? Os criadores? A pessoa responsável? Ou alguém mais abaixo na cadeia?

Os sistemas de guerra com IA já estão a ser utilizados na Ucrânia e nos conflitos entre a Palestina e Israel, mas estas questões continuam em grande parte por testar.

Esperemos que continue assim.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições