В то время как на Украине и Ближнем Востоке бушуют конфликты, современное поле боя стало полигоном для испытаний боевых технологий с использованием искусственного интеллекта.
От автономных беспилотников до алгоритмов предиктивного наведения на цель - системы искусственного интеллекта меняют природу вооруженных конфликтов.
США, Украина, Россия, Китай, Израиль и другие страны находятся в состоянии гонки вооружений ИИ, каждый из которых борется за технологическое превосходство в условиях все более нестабильной геополитической обстановки.
С появлением новых видов оружия и тактик растут и их последствия.
Сейчас перед нами стоят важнейшие вопросы о будущем войны, контроле над человеком и этике передачи принятия решений о жизни и смерти машинам.
ИИ, возможно, уже спровоцировал военную эскалацию
Назад в 2017 год, Проект Maven представляет собой основную попытку Пентагона внедрить искусственный интеллект в военные операции. Его цель - обеспечить идентификацию и отслеживание целей в реальном времени по видеозаписям с беспилотников без вмешательства человека.
Хотя Project Maven часто обсуждается с точки зрения анализа записей с камер дронов, его возможности, вероятно, гораздо шире.
По данным некоммерческой организации Исследование Tech InquiryСистема искусственного интеллекта также обрабатывает данные со спутников, радаров, социальных сетей и даже захваченных вражеских объектов. Такой широкий спектр исходных данных известен как "разведка из всех источников".
В марте 2023 года произошел военный инцидент, когда американский беспилотник MQ-9 Reaper столкнулся с российским истребителем над Черным морем, в результате чего беспилотник потерпел крушение.
Незадолго до этого инцидента Национальное агентство геопространственной разведки (NGA) подтвердило использование технологии Project Maven на Украине.
Генерал-лейтенант Кристофер Т. Донахью, командующий XVIII воздушно-десантным корпусом, позже заявил совершенно определенно о конфликте между Украиной и Россией: "В конце концов, это стало нашей лабораторией".
Проект Maven в Украине включал в себя передовые системы искусственного интеллекта, интегрированные в радар с синтезированной апертурой (SAR) Lynx на MQ-9 Reapers. Таким образом, ИИ мог сыграть важную роль в столкновении беспилотников.
После этого США вызвали российского посла в Вашингтон, чтобы выразить свои возражения, а Европейское командование США назвало инцидент "небезопасным и непрофессиональным".
Россия отрицает, что столкновение имело место. В ответ на это США передислоцировали несколько беспилотных самолетов для наблюдения за регионом, что вызвало протест России.
Такая ситуация создавала угрожающую возможность влияния систем ИИ на военные решения и даже способствовала непредвиденной эскалации военных конфликтов.
Как пишет Tech Inquiry, "стоит выяснить, не способствовал ли проект Maven непреднамеренно одной из самых значительных военных эскалаций нашего времени".
Этические минные поля
До сих пор производительность Project Maven была в значительной степени непоследовательной.
Согласно Приведенные данные Bloomberg по Киевская независимая"При использовании различных типов изображений солдаты могут правильно идентифицировать танк в 84% случаев, в то время как ИИ Project Maven ближе к 60%, причем в условиях снегопада этот показатель падает до 30%".
Хотя этические последствия использования искусственного интеллекта для принятия решений о жизни и смерти в военных действиях вызывают глубокую тревогу, риск неисправности привносит еще более пугающий аспект в эту гонку технологических вооружений.
Вопрос не только в том, стоит ли использовать ИИ для борьбы с людьми, но и в том, можем ли мы доверять этим системам, чтобы они работали как положено в тумане войны.
Что произойдет, если гражданские лица, находящиеся поблизости, будут обозначены как цели и уничтожены автономно? А что, если сам беспилотник выйдет из строя и попадет в среду, где его не учили работать?
Сбой в работе ИИ в данном контексте - это не просто технический сбой, это потенциальный катализатор трагедии невообразимого масштаба. В отличие от человеческих ошибок, которые могут быть ограничены по масштабам, ошибка системы ИИ может привести к повсеместной, неизбирательной бойне в считанные секунды.
Обязательства по замедлению этих процессов и хранению оружия под замком уже приняты, о чем свидетельствуют следующие факты 30 стран присоединились US ограждения о военных технологиях ИИ.
Министерство обороны США (DoD) также выпустили пять "этические принципы искусственного интеллекта" для военных нужд, включая то, что "Персонал Министерства обороны будет проявлять должный уровень рассудительности и осторожности, оставаясь ответственным за разработку, развертывание и использование возможностей ИИ".
Однако последние события указывают на несоответствие между этими принципами и практикой.
Во-первых, технологии, использующие ИИ, скорее всего, уже виновны в серьезных инцидентах, выходящих за рамки их предназначения. Во-вторых, целевая группа DoD по генеративному ИИ предполагает передачу функций частным компаниям. таких как Palantir, Microsoft и OpenAI.
Сотрудничество с коммерческими организациями, не подлежащими такому же надзору, как государственные учреждения, ставит под сомнение способность Министерства обороны контролировать разработку ИИ.
Тем временем Международный комитет Красного Креста (МККК) инициировал дискуссии о законности этих системособенно в отношении Принцип "различия" Женевской конвенцииВ соответствии с этим документом необходимо проводить различие между комбатантами и гражданскими лицами.
Алгоритмы искусственного интеллекта хороши лишь настолько, насколько хороши их обучающие данные и запрограммированные правила, поэтому им может быть сложно справиться с этой задачей, особенно в динамичных и непредсказуемых условиях поля боя.
Как показал инцидент с беспилотником в Черном море, эти опасения реальны. Тем не менее, военные лидеры по всему миру не теряют надежды на создание боевых машин с искусственным интеллектом.
Не так давно истребитель F-16, управляемый искусственным интеллектом, обогнал пилотов-людей в ходе демонстрационных испытаний.
Министр ВВС США Фрэнк Кендалл, который испытал это на собственном опытеподвел итог инерции, связанной с военными технологиями ИИ: "Не иметь его - это риск для безопасности. На данный момент мы должны иметь его".
На первый взгляд, это мрачное признание.
Несмотря на тысячелетия войн и их разрушительные последствия, одна только мысль о том, что можно быть на шаг позади "врага", - эта первобытная тревога, возможно, глубоко укоренившаяся в нашей психике, - продолжает преобладать над разумом.
Отечественное оружие с искусственным интеллектом
В Украине молодые компании, такие как Vyriy, Saker и Roboneers, активно разрабатывают технологии, которые стирают хрупкую грань между человеческим и машинным принятием решений на поле боя.
Компания Saker разработала автономную систему целеуказания, позволяющую идентифицировать и атаковать цели на расстоянии до 25 миль, а Roboneers создали дистанционно управляемую пулеметную турель, которой можно управлять с помощью игрового контроллера и планшета.
Об этом новом состоянии современной войны, управляемой искусственным интеллектом, сообщает New York Times Недавно мы следили за Алексеем Бабенко, 25-летним генеральным директором компании Vyriy, производящей беспилотники, который демонстрировал последнее творение своей компании.
В реальной демонстрации Бабенко ехал на мотоцикле на полном ходу, а беспилотник следовал за ним, не завися от человека. Журналисты наблюдали за происходящим на экране ноутбука.
Современный квадрокоптер в конце концов поймал его, и, по словам репортеров, "если бы дрон был вооружен взрывчаткой и если бы его коллеги не отключили автономное слежение, мистеру Бабенко пришлось бы несладко".
Как и Украина, израильско-палестинский конфликт становится очагом исследований в области военного ИИ.
Экспериментальное оружие с искусственным интеллектом или полуавтономное оружие включает в себя квадрокоптеры с дистанционным управлением, вооруженные пулеметами и ракетами, и "JaguarПолуавтономный робот, используемый для патрулирования границ.
Израильские военные также создали турели с искусственным интеллектом, которые создают так называемые "автоматические зоны поражения" вдоль границы с сектором Газа.
Возможно, наибольшее беспокойство у наблюдателей за соблюдением прав человека вызывают израильские автоматические системы генерации целей. "Евангелие" предназначен для определения целей инфраструктуры, а "Лаванда" сосредоточена на составлении списков индивидуальных человеческих целей.
Другая система, получившая зловещее название "Где папа?"По имеющимся данным, она используется для отслеживания подозреваемых боевиков, когда они находятся со своими семьями.
Левое израильское новостное издание +972, ведущее репортаж из Тель-Авива, признало, что эти системы почти наверняка привели к жертвам среди гражданского населения.
Путь вперед
По мере развития технологий военного ИИ возложение ответственности за ошибки и неудачи становится трудноразрешимой задачей, в которую мы уже попали, - это спиралевидная морально-этическая пустота.
Как мы можем предотвратить будущее, в котором убийства будут больше автоматизированы, чем человечны, а ответственность будет потеряна в алгоритмическом тумане?
Текущие события и риторика не вдохновляют на осторожность.