Den amerikanske hæren eksperimenterer med GPT-4-kontrollert taktikk på slagmarken

6. mars 2024

krigsspill AI

Den amerikanske hæren prøver seg på å integrere AI-chatboter i sin strategiske planlegging, om enn innenfor rammene av en krigsspillsimulering basert på det populære videospillet Starcraft II. 

Dette studie, ledet av US Army Research Laboratory, analyserer OpenAIs GPT-4 Turbo- og GPT-4 Vision-strategier på slagmarken. 

Dette er en del av OpenAIs samarbeid med Forsvarsdepartementet (DOD) etter etableringen av arbeidsgruppe for generativ AI i fjor. 

Bruken av kunstig intelligens på slagmarken er heftig debattert, med en nylig lignende studie om AI-krigsspill at LLM-er som GPT-3.5 og GPT-4 har en tendens til å eskalere diplomatiske taktikker, noe som noen ganger kan føre til atomkrig. 

Denne nye forskningen fra den amerikanske hæren brukte Starcraft II til å simulere et slagmarksscenario som involverte et begrenset antall militære enheter.

Forskerne kalte dette systemet "COA-GPT" - der COA står for det militære begrepet "Courses of Action", som i hovedsak beskriver militær taktikk. 

COA-GPT inntok rollen som den militære sjefens assistent, med oppgave å utarbeide strategier for å utslette fiendens styrker og erobre strategiske punkter. 

AI-krigsspill
COA-GPT er et AI-drevet beslutningsstøttesystem som hjelper kommando- og kontrollpersonell med å utvikle handlingsplaner (COA). Det bruker LLM-er som er begrenset av forhåndsdefinerte retningslinjer. Kommando- og kontrollpersonell legger inn informasjon om oppdraget, og COA-GPT genererer potensielle COA-er. Gjennom en iterativ prosess med bruk av naturlig språk samarbeider de menneskelige operatørene og COA-GPT for å avgrense og velge den mest egnede COA-en for oppdragets mål. Kilde: ArXiv.

Forskerne påpeker at tradisjonell COA er notorisk treg og arbeidskrevende. COA-GPT tar beslutninger på få sekunder, samtidig som menneskelig tilbakemelding integreres i AI-ens læringsprosess. 

Krigsspill AI
Illustrerer den iterative prosessen med å utvikle handlingsforløp (COA) med menneskelig input. I (a) genererer COA-GPT en første COA uten menneskelig veiledning, som viser styrkebevegelser (blå piler) over broer og engasjementsdirektiver (røde piler) mot fiendtlige enheter. Panel (b) viser COA-en etter at en menneskelig sjef har justert den, og spesifisert at egne flystyrker skal angripe fiendtlig luftfart direkte. Til slutt viser (c) en ytterligere forbedring av COA-en, der styrkene splittes for å håndtere både fiendtlig artilleri og rekognoseringsenheter som får ordre om å rykke frem til den nordlige broen. Kilde: ArXiv.

COA-GPT er bedre enn andre metoder, men det koster

COA-GPT viste seg å være bedre enn eksisterende metoder når det gjaldt å generere strategiske COA-er, og kunne tilpasse seg tilbakemeldinger i sanntid. 

Det var imidlertid mangler. COA-GPT hadde særlig høyere tap i forbindelse med å oppnå oppdragets mål.

I studien heter det: "Vi observerer at COA-GPT og COA-GPT-V, selv når de er forbedret med menneskelig tilbakemelding, viser høyere tap av egne styrker sammenlignet med andre baselines."

Avskrekker dette forskerne? Tilsynelatende ikke.

Studien konkluderer med at "COA-GPT representerer en transformativ tilnærming til militære C2-operasjoner, som legger til rette for raskere og smidigere beslutningstaking og opprettholder et strategisk forsprang i moderne krigføring".

Det er bekymringsfullt at et AI-system som forårsaket flere unødvendige dødsfall enn grunnlinjen, defineres som en "transformativ tilnærming".

Forsvarsdepartementet har allerede identifisert andre muligheter for å utforske AIs militære bruksområder, men det er fortsatt bekymring knyttet til teknologiens beredskap og etiske implikasjoner. 

Hvem er for eksempel ansvarlig når militære AI-applikasjoner går galt? Utviklerne? Den ansvarlige personen? Eller noen lenger ned i kjeden?

AI-krigføringssystemer er allerede tatt i bruk i konfliktene i Ukraina og Palestina-Israel, men disse spørsmålene er i stor grad uprøvd.

La oss håpe at det forblir slik.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser