ИИ столкнулся с "моментом Оппенгеймера" в гонке вооружений роботов-убийц

Май 1, 2024

  • На международной конференции в Вене обсуждалась необходимость регулирования автономного оружия ИИ
  • Министр иностранных дел Австрии Александр Шалленберг заявил, что мир стоит перед "моментом Оппенгеймера".
  • ИИ уже используется в войнах в Израиле и на Украине в отсутствие нормативных документов, регулирующих эту технологию

На международной конференции "Человечество на перепутье: Автономные оружейные системы и проблема регулирования" в Вене прозвучали призывы регулировать использование ИИ в автономных оружейных системах (AWS), пока эта технология находится в зачаточном состоянии.

На протяжении веков развитие технологий приводило к кардинальным изменениям в ведении войн. Такие разработки, как сталь, порох и атомная бомба, нашли свое первоначальное применение в военных действиях, а затем стали использоваться в гражданских целях.

В этом отношении ИИ опередил тенденцию. Первые приложения в основном были коммерческими, но силы обороны быстро увидели потенциал ИИ для преобразования поля боя.

Ссылаясь на первую атомную бомбу, министр иностранных дел Австрии Александр Шалленберг заявил присутствующим из 143 стран, что мир стоит перед "моментом Оппенгеймера", решая, следует ли использовать ИИ в автономном оружии и каким образом.

Толчком к срочному принятию нормативных актов послужило не только предвидение потенциальных будущих угроз, но и реакция на использование ИИ в текущих конфликтах.

Автономные беспилотники используются обеими сторонами в войне на Украине. Израильские войска используют ИИ во многих оборонных приложениях, в том числе, как утверждается, для идентификации человеческих целей во время войны в Газе.

Шалленберг заявил: "Автономные системы вооружений скоро заполнят поля сражений во всем мире", предупредив, что сейчас "настало время договориться о международных правилах и нормах для обеспечения человеческого контроля".

Он призвал ограничить автономность оружия ИИ, сказав: "По крайней мере, давайте сделаем так, чтобы самые глубокие и далеко идущие решения - кто живет, а кто умирает - оставались в руках людей, а не машин".

В заявлении австрийского правительства говорится: "Автономные системы вооружений (AWS) поднимают глубокие вопросы с точки зрения права, этики, гуманитарной помощи и безопасности. Человечество находится на перепутье и должно объединиться для решения фундаментальной проблемы регулирования этого оружия".

Доллары на оборону против человечества

Продолжающиеся конфликты привели к увеличению оборонных бюджетов по всему миру, а цены на акции нескольких Оборонные технологические компании, работающие на основе искусственного интеллекта в ответ. Технологии AWS могут оказаться слишком прибыльными, чтобы их запрещать.

Яан Таллинн, один из первых инвесторов Google. DeepMind Технологии говорят, что "стимулы Кремниевой долины могут не совпадать со стимулами остального человечества".

В своем основной доклад На конференции Таллинн сказал: "Я призываю вас с опаской относиться к тем, кто обещает точность и предсказуемость в системах, использующих ИИ. Мы уже видели, как ИИ допускал ошибки в выборе, как большие, так и маленькие - от неправильного распознавания лысой головы судьи как футбольного мяча до гибели пешеходов по вине самоуправляемых автомобилей, не способных распознать пешеходный переход".

"Мы должны быть крайне осторожны, полагаясь на точность этих систем, будь то в военном или гражданском секторе. Случайные ошибки, вызванные автономным оружием, могут привести к таким войнам, которые никогда не должны вестись".

Таллинн отметил, что разработка более надежного ИИ-оружия не является решением проблемы. Он пояснил, что "даже когда автономное оружие станет способным идеально различать людей, оно значительно облегчит проведение геноцида и целенаправленных убийств, направленных на поиск специфических человеческих характеристик".

В заключительном заявлении, которое будет направлено Генеральному секретарю ООН, группа подтвердила свою "твердую решимость работать в срочном порядке и со всеми заинтересованными сторонами над созданием международного правового документа, регулирующего автономные системы вооружений".

В заявлении добавляется: "Мы обязаны действовать и установить правила, необходимые для защиты человечества... Человеческий контроль должен преобладать в применении силы".

Более 115 стран-членов ООН согласны с необходимостью введения обязательных правил, регулирующих AWS, но, избежав вето со стороны России, Китая или US кажется маловероятным.

Энтони Агирре, космолог и соучредитель Института будущей жизни, подытожил ситуацию, сказав: "Будущее убойных ботов уже здесь".

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения