На международной конференции "Человечество на перепутье: Автономные оружейные системы и проблема регулирования" в Вене прозвучали призывы регулировать использование ИИ в автономных оружейных системах (AWS), пока эта технология находится в зачаточном состоянии.
На протяжении веков развитие технологий приводило к кардинальным изменениям в ведении войн. Такие разработки, как сталь, порох и атомная бомба, нашли свое первоначальное применение в военных действиях, а затем стали использоваться в гражданских целях.
В этом отношении ИИ опередил тенденцию. Первые приложения в основном были коммерческими, но силы обороны быстро увидели потенциал ИИ для преобразования поля боя.
Ссылаясь на первую атомную бомбу, министр иностранных дел Австрии Александр Шалленберг заявил присутствующим из 143 стран, что мир стоит перед "моментом Оппенгеймера", решая, следует ли использовать ИИ в автономном оружии и каким образом.
Человечество на перепутье: Автономные системы вооружений скоро заполнят поля сражений во всем мире. Мы должны принять меры и договориться о международных правилах, чтобы решения о жизни и смерти никогда не принимались машинами!
➡️ Начало работы #AWS2024Вена 900 с лишним гостей из 142 штатов pic.twitter.com/AtwumLu4OP
- Александр Шалленберг (@a_schallenberg) 29 апреля 2024 года
Толчком к срочному принятию нормативных актов послужило не только предвидение потенциальных будущих угроз, но и реакция на использование ИИ в текущих конфликтах.
Автономные беспилотники используются обеими сторонами в войне на Украине. Израильские войска используют ИИ во многих оборонных приложениях, в том числе, как утверждается, для идентификации человеческих целей во время войны в Газе.
Шалленберг заявил: "Автономные системы вооружений скоро заполнят поля сражений во всем мире", предупредив, что сейчас "настало время договориться о международных правилах и нормах для обеспечения человеческого контроля".
Он призвал ограничить автономность оружия ИИ, сказав: "По крайней мере, давайте сделаем так, чтобы самые глубокие и далеко идущие решения - кто живет, а кто умирает - оставались в руках людей, а не машин".
В заявлении австрийского правительства говорится: "Автономные системы вооружений (AWS) поднимают глубокие вопросы с точки зрения права, этики, гуманитарной помощи и безопасности. Человечество находится на перепутье и должно объединиться для решения фундаментальной проблемы регулирования этого оружия".
Доллары на оборону против человечества
Продолжающиеся конфликты привели к увеличению оборонных бюджетов по всему миру, а цены на акции нескольких Оборонные технологические компании, работающие на основе искусственного интеллекта в ответ. Технологии AWS могут оказаться слишком прибыльными, чтобы их запрещать.
Яан Таллинн, один из первых инвесторов Google. DeepMind Технологии говорят, что "стимулы Кремниевой долины могут не совпадать со стимулами остального человечества".
В своем основной доклад На конференции Таллинн сказал: "Я призываю вас с опаской относиться к тем, кто обещает точность и предсказуемость в системах, использующих ИИ. Мы уже видели, как ИИ допускал ошибки в выборе, как большие, так и маленькие - от неправильного распознавания лысой головы судьи как футбольного мяча до гибели пешеходов по вине самоуправляемых автомобилей, не способных распознать пешеходный переход".
"Мы должны быть крайне осторожны, полагаясь на точность этих систем, будь то в военном или гражданском секторе. Случайные ошибки, вызванные автономным оружием, могут привести к таким войнам, которые никогда не должны вестись".
Таллинн отметил, что разработка более надежного ИИ-оружия не является решением проблемы. Он пояснил, что "даже когда автономное оружие станет способным идеально различать людей, оно значительно облегчит проведение геноцида и целенаправленных убийств, направленных на поиск специфических человеческих характеристик".
"Выход из гонки вооружений требует мужества и дальновидности. Мы уже делали это раньше, и мы можем сделать это снова".
С открытия заседаний исторической Венской конференции по автономному оружию #AWS2024 вчера, вот полный текст ключевой речи соучредителя FLI Яана Таллина ⬇️. pic.twitter.com/wFYxWpDl1S
- Институт будущего жизни (@FLI_org) 30 апреля 2024 года
В заключительном заявлении, которое будет направлено Генеральному секретарю ООН, группа подтвердила свою "твердую решимость работать в срочном порядке и со всеми заинтересованными сторонами над созданием международного правового документа, регулирующего автономные системы вооружений".
В заявлении добавляется: "Мы обязаны действовать и установить правила, необходимые для защиты человечества... Человеческий контроль должен преобладать в применении силы".
Более 115 стран-членов ООН согласны с необходимостью введения обязательных правил, регулирующих AWS, но, избежав вето со стороны России, Китая или US кажется маловероятным.
Энтони Агирре, космолог и соучредитель Института будущей жизни, подытожил ситуацию, сказав: "Будущее убойных ботов уже здесь".