Армия США экспериментирует с тактикой ведения боя под управлением GPT-4

6 марта 2024 года

военная игра AI

Армия США пробует внедрить чат-ботов с искусственным интеллектом в стратегическое планирование, хотя и в рамках симулятора военной игры, основанного на популярной видеоигре Starcraft II. 

Это исследованиеИсследовательская лаборатория армии США анализирует боевые стратегии OpenAI GPT-4 Turbo и GPT-4 Vision. 

Это часть проекта OpenAI сотрудничество с Министерством обороны (МО) после создания Целевая группа по генеративному ИИ в прошлом году. 

Использование искусственного интеллекта на поле боя горячо обсуждаемый, с Недавнее аналогичное исследование, посвященное военным играм с искусственным интеллектом обнаружил, что такие LLM, как GPT-3.5 и GPT-4, склонны к эскалации тактики дипломатии, иногда приводящей к ядерной войне. 

В новом исследовании, проведенном армией США, Starcraft II использовался для моделирования сценария боя с участием ограниченного числа военных подразделений.

Исследователи окрестили эту систему "COA-GPT" - COA означает военный термин "Courses of Action", который, по сути, описывает военную тактику. 

COA-GPT взял на себя роль помощника военного командира, которому поручено разрабатывать стратегии уничтожения вражеских сил и захвата стратегических пунктов. 

ИИ варгейм
COA-GPT - это система поддержки принятия решений на основе искусственного интеллекта, которая помогает командному составу разрабатывать планы действий (COA). Она использует LLM, ограниченные заранее определенными рекомендациями. Командный и диспетчерский состав вводит информацию о миссии, а COA-GPT генерирует потенциальные COA. В ходе итеративного процесса с использованием естественного языка операторы-люди и COA-GPT совместно дорабатывают и выбирают наиболее подходящий COA для целей миссии. Источник: ArXiv.

Исследователи отмечают, что традиционный COA, как известно, медленный и трудоемкий. COA-GPT принимает решения за считанные секунды, интегрируя обратную связь с человеком в процесс обучения ИИ. 

Wargame AI
Иллюстрирует итеративный процесс разработки направлений действий (COA) с участием человека. На панели (a) COA-GPT генерирует первоначальный COA без участия человека, отображая движение сил (синие стрелки) по мостам и директивы на поражение (красные стрелки) против вражеских подразделений. На панели (b) показан COA после того, как человек-командир скорректировал его, указав, что дружественные авиационные силы должны напрямую поразить вражескую авиацию. И наконец, (c) демонстрирует дальнейшее уточнение COA: силы разделяются для борьбы с артиллерией противника и разведывательными подразделениями, получающими приказ продвигаться к северному мосту. Источник: ArXiv.

COA-GPT превосходит другие методы, но за это приходится платить

COA-GPT продемонстрировал превосходство над существующими методами и превзошел их в генерации стратегических COA, и может адаптироваться к обратной связи в режиме реального времени. 

Однако были и недостатки. В частности, COA-GPT понесла больше потерь при выполнении поставленных задач.

В исследовании говорится: "Мы наблюдаем, что COA-GPT и COA-GPT-V, даже если они дополнены обратной связью с человеком, демонстрируют более высокие потери дружественных сил по сравнению с другими базовыми вариантами".

Сдерживает ли это исследователей? Похоже, что нет.

В исследовании говорится: "В заключение следует отметить, что COA-GPT представляет собой трансформационный подход в военных операциях C2, способствующий более быстрому и оперативному принятию решений и сохранению стратегического преимущества в современной войне".

Вызывает беспокойство тот факт, что система искусственного интеллекта, которая привела к большему количеству ненужных жертв, чем базовый уровень, определяется как "преобразующий подход".

Министерство обороны уже наметила другие направления для изучения возможностей использования ИИ в военных целях, но опасения по поводу готовности технологии и этических последствий остаются. 

Например, кто несет ответственность, когда военные Приложения искусственного интеллекта работают неправильно? Разработчики? Ответственный человек? Или кто-то еще ниже по цепочке?

Боевые системы с искусственным интеллектом уже применяются в конфликтах на Украине и в Палестине и Израиле, но эти вопросы остаются практически непроверенными.

Будем надеяться, что так оно и останется.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения