Die US-Armee experimentiert mit GPT-4-gesteuerten Gefechtsfeldtaktiken

März 6, 2024

KI-Kriegsspiel

Die US-Armee versucht sich an der Integration von KI-Chatbots in ihre strategische Planung, allerdings im Rahmen einer Kriegsspielsimulation, die auf dem beliebten Videospiel Starcraft II basiert. 

Diese Studieunter der Leitung des US Army Research Laboratory, analysiert OpenAIs GPT-4 Turbo und GPT-4 Vision Schlachtfeldstrategien. 

Dies ist Teil von OpenAIs Zusammenarbeit mit dem Verteidigungsministerium (DOD) nach der Einrichtung des Arbeitsgruppe für generative KI letztes Jahr. 

Der Einsatz von KI auf dem Schlachtfeld ist heiß debattiert, mit einer jüngste ähnliche Studie über KI-Wargaming die Feststellung, dass LLMs wie GPT-3.5 und GPT-4 dazu neigen, diplomatische Taktiken zu eskalieren, was manchmal zu einem Atomkrieg führt. 

In dieser neuen Studie der US-Armee wurde mit Starcraft II ein Gefechtsszenario mit einer begrenzten Anzahl von Militäreinheiten simuliert.

Die Forscher nannten dieses System "COA-GPT" - wobei COA für den militärischen Begriff "Courses of Action" steht, der im Wesentlichen militärische Taktiken beschreibt. 

COA-GPT übernahm die Rolle eines Assistenten des militärischen Befehlshabers, der Strategien zur Vernichtung der gegnerischen Streitkräfte und zur Einnahme strategischer Punkte entwickeln sollte. 

KI-Kriegsspiel
COA-GPT ist ein KI-gestütztes System zur Entscheidungsunterstützung, das das Führungspersonal bei der Entwicklung von Handlungsoptionen (Courses of Action, COAs) unterstützt. Es verwendet LLMs, die durch vordefinierte Richtlinien eingeschränkt sind. Das Führungspersonal gibt Missionsinformationen ein und COA-GPT generiert potenzielle COAs. In einem iterativen Prozess, der natürliche Sprache verwendet, arbeiten die menschlichen Operatoren und COA-GPT zusammen, um die für die Missionsziele am besten geeigneten COAs zu verfeinern und auszuwählen. Quelle: ArXiv.

Die Forscher stellen fest, dass die herkömmliche COA bekanntermaßen langsam und arbeitsintensiv ist. COA-GPT trifft Entscheidungen innerhalb von Sekunden und integriert menschliches Feedback in den Lernprozess der KI. 

Kriegsspiel AI
Veranschaulicht den iterativen Prozess der Entwicklung von Aktionsplänen (COAs) mit menschlichen Eingaben. In (a) generiert COA-GPT eine anfängliche COA ohne menschliche Führung und zeigt Truppenbewegungen (blaue Pfeile) über Brücken und Einsatzanweisungen (rote Pfeile) gegen feindliche Einheiten an. Panel (b) zeigt die COA, nachdem ein menschlicher Kommandant sie angepasst hat, indem er angibt, dass die eigenen Luftstreitkräfte die feindlichen Luftstreitkräfte direkt angreifen sollen. Schließlich zeigt (c) eine weitere Verfeinerung der COA, wobei sich die Truppen aufteilen, um sowohl feindliche Artillerie als auch Aufklärungseinheiten zu bekämpfen, die den Befehl erhalten, zur nördlichen Brücke vorzurücken. Quelle: ArXiv.

COA-GPT übertrifft andere Methoden, aber es ist mit Kosten verbunden

COA-GPT zeigte eine bessere Leistung als die bestehenden Methoden und übertraf die bestehenden Methoden bei der Erstellung strategischer COAs, und könnte sich an Echtzeit-Feedback anpassen. 

Allerdings gab es auch Schwachstellen. Vor allem COA-GPT hatte bei der Erfüllung der Missionsziele höhere Verluste zu beklagen.

In der Studie heißt es: "Wir stellen fest, dass COA-GPT und COA-GPT-V selbst dann, wenn sie mit menschlichem Feedback verbessert werden, im Vergleich zu anderen Grundmodellen höhere Verluste bei den eigenen Truppen aufweisen."

Schreckt das die Forscher ab? Offensichtlich nicht.

In der Studie heißt es: "Zusammenfassend lässt sich sagen, dass COA-GPT einen transformativen Ansatz für militärische C2-Operationen darstellt, der eine schnellere und agilere Entscheidungsfindung ermöglicht und einen strategischen Vorsprung in der modernen Kriegsführung sichert."

Es ist besorgniserregend, dass ein KI-System, das mehr unnötige Opfer verursacht hat als die Basisversion, als "transformativer Ansatz" bezeichnet wird.

Das Verteidigungsministerium hat bereits andere Wege zur Erforschung der militärischen Nutzung von KI aufgezeigt, aber es bestehen Bedenken hinsichtlich der Einsatzbereitschaft und der ethischen Auswirkungen der Technologie. 

Wer ist zum Beispiel verantwortlich, wenn das Militär AI-Anwendungen gehen schief? Die Entwickler? Die verantwortliche Person? Oder jemand weiter unten in der Kette?

KI-Kampfführungssysteme werden bereits in den Konflikten in der Ukraine und in Palästina/Israel eingesetzt, aber diese Fragen sind noch weitgehend unerprobt.

Hoffen wir, dass es dabei bleibt.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen