ИИ на поле боя: кто несет ответственность, если все пойдет не так?

27 августа 2023 года
Военные преступления

В мире, где "военные игры" больше не относятся только к настольным или видеоиграм, но и к сценариям жизни и смерти, облегчаемым машинным интеллектом, вопрос об ответственности приобретает грандиозное значение.

Военные активизируют исследования и инвестиции в ИИ.

Некоторые аналитики определили 11-дневную израильско-палестинскую встречу 2021 года как первую "Война ИИИзраильские технологии помогли в разведке и развертывании на поле боя".

В последние месяцы, tвоенные США создали Целевая группа по генеративному ИИ и успешно испытали автономный самолет с искусственным интеллектом.

Возрастающая роль искусственного интеллекта в военных действиях ставит целый ряд сложных правовых и этических дилемм, на которые мы еще не нашли ответа, даже несмотря на то, что военные технологии, основанные на искусственном интеллекте, развертываются уже в данный момент.

Кто несет ответственность, когда ИИ идет не так?

Производитель военной техники Rafael's "Огненный ткач" определяет местоположение вражеских позиций с помощью сенсоров и предлагает, с какого места лучше всего открыть по ним огонь. 

В описании продукта говорится: "Fire Weaver рассчитывает правила ведения боя и управляет наведением и стрельбой, используя наиболее подходящего стрелка для каждой полученной цели".

"Рассчитывает" - это главное слово здесь. ИИ может свести решение об уничтожении цели к двоичному "да/нет", но что, если Fire Weaver примет ребенка за вражеского солдата? Или грузовик с гуманитарной помощью вместо вражеского автомобиля?

В настоящее время отсутствие моральной, этической и правовой ясности просто бросается в глаза. ИИ находится в правовом и этическом вакууме, и так может продолжаться еще некоторое время, поскольку законотворчество, как известно, медленно - и редко когда оно сталкивается с такой быстро развивающейся технологией. 

В обществе уже есть множество примеров того, как ИИ ущемляет людей и их права. Они дают представление о пробелах в законодательстве и этике, которые возникают в связи с ИИ и его различными видами использования. 

Например, ChatGPT предположительно житель штата Джорджия Марк Уолтерс был признан виновным в корпоративной растрате и обвинил профессора права Джонатана Терли в сексуальном насилии. В обоих случаях ChatGPT оказался ложным.

Аналогичным образом, компания Getty Images и несколько художников, авторов и других создателей запустили судебные иски по авторским правам против технологических компаний за использование учебных данных для построения своих моделей. 

Данные для обучения часто собираются у сторонних разработчиков, например Common Crawl, и "теневых библиотек", таких как Bibliotik, аналогичных торрент-сайтам вроде PirateBay. 

В таком случае кто несет ответственность за нарушение авторских прав? Разработчики ИИ или издатели наборов данных? Это круг ответственности, как в мультфильме, где каждый потенциальный виновник указывает на тех, кто рядом с ним, и в итоге все уходят от ответственности. 

Этот туманный этический ландшафт становится гораздо более рискованным в контексте оружия ИИ и алгоритмической военной тактики, где расчеты модели могут буквально определять жизнь или смерть. 

Военные организации уже осознают изменение парадигмы, которое несет в себе оружие с искусственным интеллектом. По данным Министерства обороны (DoD), первый из пяти "этические принципы искусственного интеллекта" для военных целей - "Ответственный", что означает: "Персонал Министерства обороны будет применять соответствующие уровни суждений и осторожности, оставаясь ответственным за разработку, развертывание и использование возможностей ИИ".

Это означает, что за действия машины в конечном итоге должен отвечать человек. Военные всегда исходили из принципа, что кто-то - как правило, командир или солдат - должен нести ответственность за действия, совершенные во время войны. Однако роль ИИ в процессе принятия решений становится все более туманной. 

Первый вопрос заключается в том, что по мере того, как ИИ играет все более сложную роль в целеуказании, наблюдении и других областях, равносильно ли нажатие кнопки "Одобрить" виновности? 

Если, например, прогнозы ИИ окажутся ошибочными, что приведет к жертвам среди мирного населения, вряд ли кто-то согласится с тем, что вина за несчастный случай будет возложена исключительно на "машину". 

В свою очередь, могут возникать ситуации, когда человека ошибочно обвиняют в том, что он сыграл роль в несчастном случае, к которому он не причастен, что антрополог М.К. Элиш называет "зона морального смятия." 

Исследование Элиш промышленных и машинных аварий показывает, что люди склонны брать на себя вину за любой несчастный случай, даже если виновата машина, алгоритм или лицо, принявшее решение о внедрении технологии. 

Она опирается на несколько примеров из реальной жизни, таких как ядерная авария на острове Три-Майл, штат Пенсильвания, и крушение рейса 447 авиакомпании Air France, которые были в основном приписаны "человеческой ошибке", а не более сложной серии сбоев, распределенных между множеством людей и систем. 

Элиш говорит об ответственности в эпоху ИИ: "Что касается автономных и роботизированных технологий, то правила, законы и нормы все еще находятся в стадии формирования и могут быть особенно подвержены неопределенности или даже уклонению от ответственности".

Это также поднимает вопросы о роли демократических процессов в войне и суверенитете человека в принятии решений. Когда война во Вьетнаме транслировалась в гостиных по всей Америке, непосредственность последствий войны повлияла на общественное мнение и политику. 

В отличие от этого, боевые действия с помощью ИИ могут лишить общество сдержек и противовесов в виде общественных настроений и демократического дискурса.

Этик и философ Томас Метцингер подчеркивает, что этические нормы - это не только юридические, но и социальные конструкции, возникающие в результате демократических процессов.

Если решения принимают алгоритмы, участие человека, а значит, и его моральная ответственность, становится рассеянным и излишним. 

Международно-правовые последствия использования искусственного интеллекта в военных действиях

Одним из основных принципов Женевской конвенции является принцип "различия", который предписывает проводить различие между комбатантами и гражданскими лицами. 

Технология уже доказала свою несостоятельность в выполнении обещаний по усилению защиты гражданских лиц: согласно утечкам документов из архива Обамы, лишь 10% человек, погибших в результате ударов американских беспилотников за все время президентства Обамы, были целевыми объектами. Перехват

Алгоритмы искусственного интеллекта хороши лишь настолько, насколько хороши данные, на которых они обучаются, и правила, которым они запрограммированы следовать. Когда речь идет о войне, алгоритм может неверно интерпретировать данные из-за тумана войны, неполноценных данных обучения или намеренно обманной тактики противника. 

Международный комитет Красного Креста (МККК) начал обсуждение вопроса о законности автономных систем вооружений в рамках существующего международного гуманитарного права, но конкретных определений пока мало. 

Они считают, что существующие системы плохо подходят для решения новых задач, которые ставит перед нами искусственный интеллект, и Предлагаемые МККК принципы расплывчаты; например, "Непредсказуемые автономные системы вооружений должны быть однозначно исключены".

Где установить порог "непредсказуемости", когда одна незначительная ошибка может стать катастрофой?

Кроме того, поле боя постоянно меняется, и на нем возникают "крайние случаи", то есть "слепые зоны", которые не учитываются при обучении ИИ. Создать системы ИИ, реагирующие на динамические условия окружающей среды с тем же временем реакции, что и люди, чрезвычайно сложно. 

Хотя оружие с искусственным интеллектом может поддерживать точность в типичных сценариях боя, что произойдет, если окружающая среда отойдет от того, что модель считает "истиной в поле", или крайние случаи нарушат ее точность?

Эрозия моральной чувствительности

С появлением современных военных стратегий и тактик акт убийства на войне претерпел значительные изменения. 

Во время Первой мировой войны исторические анализы и отчеты, такие как спорная книга С.Л.А. Маршалла "Люди против огня" свидетельствуют о том, что только 15-25% фронтовых солдат стреляли из своего оружия с намерением убить. 

Сегодня солдат, управляющий беспилотником с расстояния в тысячи километров, не испытывает непосредственных эмоциональных и психологических последствий своих действий, что свидетельствует о более низкой частоте возникновения посттравматического стрессового расстройства и других психических расстройств по сравнению с теми, кто служит в полевых условиях.

Сама конструкция военных технологий адаптировалась к новым парадигмам "дистанционной войны". Контроллеры, используемые для управления беспилотниками, были отмечены за их сходство с контроллерами видеоигр, и такой выбор дизайна может быть неслучайным.

Операторы ИИ могут принимать решения, связанные с жизнью и смертью, в среде, которая абстрагирует реальность войны в виде точек данных и изображений на экране, отрывая последние моральные связи, которые мы имеем с жизнями тех, кто вовлечен в конфликт. 

Что нам делать дальше?

По мере того как военный ИИ превращается в то, чего многие серьезно опасаются, ответственность за ошибки и неудачи возлагается на одного человека, разработчиков, организаций или целых групп кажется маловероятным. 

Кому или чему остается нести ответственность? HКак мы можем предотвратить шаг в будущее, где убийство становится больше машинным, чем человеческим, а этическая ответственность растворяется в алгоритмических абстракциях? 

Со временем все более интеллектуальные искусственные системы, вероятно, изменят представление об этике и ответственности, особенно если они будут демонстрировать признаки разумности или сознания.

Но это не учитывает того, как эта ситуация управляется в настоящее время, и, как и во многих других вещах в мире ИИ, здесь больше вопросов, чем ответов.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×
 
 

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI


 

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".



 
 

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения