Беспилотники, оснащенные искусственным интеллектом, теперь автономно определяют и поражают цели на Украине.
Согласно доклад журнала New ScientistПочти наверняка удары беспилотников убивают российских солдат без прямого командования или надзора со стороны человека-оператора, хотя официальные данные отсутствуют.
Ключевым игроком в этой разработке является квадрокоптер Saker Scout, который недавно поступил на вооружение Украины.
Этот беспилотник может перевозить трехкилограммовый груз на расстояние около 12 километров. Дроны такого рода, управляемые дистанционно, уже доказали свою эффективность в продолжающемся конфликте между Россией и Украиной. Эта тяжелая модель представляет угрозу даже для тяжелобронированных танков.
Украинская компания Saker, основанная в 2021 году, изначально ставила перед собой цель предлагать доступные решения в области искусственного интеллекта для малого бизнеса, в частности системы технического зрения на основе искусственного интеллекта для беспилотных летательных аппаратов в таких отраслях, как сельское хозяйство.
Но после вторжения России компания перешла на поддержку военных. Как сообщил представитель компании, их платформа искусственного интеллекта теперь распознает около 64 различных типов "военных объектов", к которым относятся транспортные средства и другая техника.
Несмотря на автономные возможности Saker Scout, им можно управлять и вручную. В ручном режиме ИИ указывает цели и проверяет их, прежде чем нанести удар. Беспилотник интегрирован с украинской системой распределения разведданных Delta, которая получает данные из различных воздушных и спутниковых источников для создания целостного представления о месте боя.
Кроме того, беспилотник обладает двойной автономной функциональностью. Его можно отправить в регион для разведки или "поручить найти и атаковать цели автономно".
Как сообщил представитель компании New Scientist, Saker Scout уже побывал в автономном режиме, что подчеркивает развертывание автономных военных технологий на поле боя - то, чего многие опасаются.
Представитель подчеркнул, что автономное управление дроном не так надежно, как участие человека-оператора, но искусственный интеллект доказал свою эффективность, и ждать, пока "он станет идеальным, не стоит".
Размышляя о динамике развития военных действий, Михаил Федоров, министр цифровых преобразований Украины, ранее отметил, что автономное оружие представляет собой "логичный и неизбежный" прогресс в области беспилотных технологий.
Комментируя повсеместное распространение этой технологии, Пол Шарре (Paul Scharre) из Центра новой американской безопасности заявил: "Классификаторы изображений существуют уже как минимум 10 лет, и этот тип программного обеспечения можно легко загрузить и обучить на подходящих данных".
Он также выразил опасения по поводу склонности беспилотников к неправильному распознаванию целей, заявив: "Системы, продемонстрированные на данный момент, имеют определенную степень ложных срабатываний, чего и следовало ожидать".
Власти по всему миру, включая ООН, уже несколько лет обсуждают меры регулирования автономного оружия.
В докладе ООН от 2021 года упоминается о возможном развертывании автономных ударных беспилотников в Ливии в 2020 году, однако эта информация остается бездоказательной. В настоящее время использование автономного оружия не регулируется никаким подробным законодательством.
Министерство обороны США (DoD) создало пять "этические принципы искусственного интеллектаВ том числе "Ответственный", который определяется так: "Персонал Министерства обороны будет применять соответствующие уровни суждений и осторожности, оставаясь ответственным за разработку, развертывание и использование возможностей ИИ".
Хотя подобные правила означают намерение контролировать ИИ-оружие, без четких определений таких терминов, как "надлежащий уровень суждения и осторожности", они крайне субъективны.
В этой связи Шарре отмечает: "Центральным элементом дебатов была способность такого оружия соответствовать законам войны и избегать жертв среди гражданского населения".
Этические проблемы
Поза автономного оружия многочисленные этические проблемы.
Кто несет ответственность, если они ошибаются? Что произойдет, если они неправильно определят "цели", что может привести к жертвам среди гражданского населения? И, возможно, самый антиутопический вариант: что будет, если оружие ИИ ополчится на своих операторов или выйдет из строя?
Пока эти технологии встречаются редко, и мы располагаем ограниченными данными об их безопасности.
Если открытый театр боевых действий на Украине может представлять минимальный риск для гражданского населения, то в более людных местах, например, в Палестине, это может быть не так.
Возрастание роли ИИ на поле боя, пожалуй, неизбежно: технология обещает интеллектуальные, масштабируемые и экономически эффективные операции, не подвергающие риску личный состав одной из сторон.