DARPA испытала управляемый ИИ истребитель F-16 в поединке человека и ИИ

22 апреля 2024 года

  • Агентство перспективных оборонных исследовательских проектов (DARPA) разработало автономного пилота F-16 с искусственным интеллектом
  • Программа DARPA Air Combat Evaluation (ACE) стремится к "доверенной автономии" в оборонных приложениях ИИ
  • В рамках программы пилоты с искусственным интеллектом сражаются с людьми в первом в истории испытании воздушного боя.

Агентство перспективных оборонных исследовательских проектов (DARPA) объявило о проведении первого в истории воздушного испытания истребителя, управляемого искусственным интеллектом, в боевой симуляции против F-16, управляемого человеком.

Демонстрация летного мастерства ИИ-пилота состоялась в Школе летчиков-испытателей ВВС на авиабазе Эдвардс в Калифорнии в сентябре 2023 года, но о ней было объявлено только в DARPA недавно.

В ходе учений система искусственного интеллекта, разработанная в рамках программы DARPA Air Combat Evolution (ACE), пилотировала специально модифицированный испытательный самолет F-16, известный как X-62A, или VISTA (Variable In-flight Simulator Test Aircraft).

Ранее мы уже сообщали о X-62 и план Пентагона по добавлению Рои автономных самолетов-призраков с искусственным интеллектом в свой арсенал. Однако это первый случай, когда управляемый искусственным интеллектом самолет летит в сценарии догфайта, напоминающем сцены из Top Gun.

В X-62 на всякий случай были два пилота-человека, но ИИ полностью контролировал ситуацию, когда F-16 пролетали в пределах 2000 футов друг от друга на скорости 1200 миль в час.

Специально модифицированный испытательный самолет F-16, который пилотировал ИИ. Источник: DARPA

Так кто же победил? К сожалению, официальные лица не говорят. Когда ИИ ранее сражался с пилотами-людьми в симуляторе полетов, он вышел победителем.

Их нежелание дать нам оценку может быть связано не столько с соображениями национальной безопасности, сколько с тем, чтобы пощадить эго пилотов-людей.

Подполковник Райан Хефрон, руководитель программы ACE, сказал: "У нас было много целей, которые мы пытались достичь в первом раунде испытаний. Поэтому вопрос о том, кто победил? Это не обязательно отражает все нюансы испытаний, которые мы провели. Но я скажу, что цель испытаний заключалась в том, чтобы заложить основу для демонстрации того, что мы можем безопасно тестировать эти агенты ИИ в критически важных для безопасности условиях воздушного боя".

DARPA утверждает, что главная цель этих экспериментов - развитие человеко-машинной команды и доверенной автономии. Они хотят быть уверены, что пилот-человек может доверять своему ведомому ИИ, и тот будет следовать его примеру.

"Мы должны быть уверены в этих алгоритмах, чтобы использовать их в реальных условиях", - говорит подполковник Райан Хефрон, руководитель программы ACE в DARPA.

Цель ACE - создать возможность, при которой один пилот-человек сможет управлять автономными самолетами с искусственным интеллектом и объединяться с ними для более эффективного поражения противника. Самолет, управляемый искусственным интеллектом, сможет совершать маневры, превышающие физические нагрузки, которые может выдержать пилот-человек.

DARPA заявляет, что поддерживает стремление Соединенных Штатов "быть инициатором, а не жертвой стратегических технологических сюрпризов".

Китайцы почти наверняка работают над несколькими собственными сюрпризами в области защиты от ИИ.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения