Навигация по лабиринту рисков ИИ: анализ

13 июня 2023 года
Риск искусственного интеллекта

Повествование о рисках ИИ становится все более однополярным: технологические лидеры и эксперты со всех сторон выступают за регулирование. Насколько достоверны данные, подтверждающие риски ИИ? 

Риски ИИ взывают к чувствам. Есть что-то глубоко интуитивное в страхе перед роботами, которые могут обмануть нас, одержать над нами верх или превратить нас в товар, второстепенный для их собственного существования.

Дебаты вокруг рисков искусственного интеллекта усилились после того, как внекоммерческая организация Центр безопасности искусственного интеллекта (CAIS) выпустил заявление подписан более чем 350 известными людьми, включая руководителей компаний OpenAI, Anthropic и DeepMind, многочисленных ученых, общественных деятелей и даже бывших политиков. 

Заголовок заявления был предназначен для заголовков газет: "Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".

Извлечь значимый сигнал из этих шумных дебатов становится все сложнее. У критиков искусственного интеллекта есть все необходимое, чтобы выступить против него, а у сторонников или тех, кто не согласен, - все, что нужно для того, чтобы осудить анти-AI как чрезмерно преувеличенные.

И здесь есть еще один подтекст. Большие технологии могут настаивать на регулировании, чтобы оградить индустрию искусственного интеллекта от сообщества разработчиков с открытым исходным кодом. Microsoft инвестировала в OpenAI, Google - в Anthropic - следующим шагом может стать повышение барьера для входа и удушение инноваций с открытым исходным кодом.

Не столько ИИ представляет экзистенциальную опасность для человечества, сколько ИИ с открытым исходным кодом представляет экзистенциальную опасность для больших технологий. Решение одно - контролировать его сейчас.

Слишком рано убирать карты со стола

ИИ только появился в общественном сознании, поэтому практически все точки зрения на риски и регулирование остаются актуальными. Заявление CAIS, по крайней мере, может служить ценным ориентиром для ведения дискуссии на основе фактических данных.

Доктор Оскар Мендес Мальдонадо, преподаватель робототехники и искусственного интеллекта в Университете Суррея, сказалДокумент, подписанный экспертами по ИИ, содержит гораздо больше нюансов, чем можно было бы предположить из нынешних заголовков. "ИИ может привести к вымиранию" сразу навевает мысли о захвате ИИ в стиле терминатора. Документ значительно более реалистичен".

Как подчеркивает Мальдонадо, реальная суть заявления о рисках ИИ опубликована на другой странице их сайта. Риск искусственного интеллекта - и в то же время было проведено удивительно мало дискуссий по поднятым там вопросам. Понимание достоверности рисков, связанных с ИИ, является основополагающим для информирования о дебатах вокруг них.

Так какие же доказательства привел CAIS в подтверждение своих слов? Выглядят ли достоверными часто упоминаемые риски ИИ? 

Риск 1: Вооружение ИИ

Вооружение ИИ - это пугающая перспектива, поэтому неудивительно, что она занимает первое место среди 8 рисков CAIS. 

CAIS утверждает, что искусственный интеллект может быть использован в кибератаках, что продемонстрировали исследователи из Центра безопасности и новых технологий, которые обзор способов применения Машинное обучение (ML) для атак на ИТ-системы. Бывший генеральный директор Google Эрик Шмидт также привлек внимание к возможностям ИИ по обнаружению эксплойтов нулевого дня, которые дают хакерам возможность проникнуть в системы через их самые слабые места. 

С другой стороны, Майкл Кларе, консультирующий по вопросам контроля над вооружениями, обсуждает автоматизация систем ядерного командования и управлениякоторые также могут оказаться уязвимыми для ИИ. Он говорит: "Эти системы также склонны к необъяснимым сбоям и могут быть обмануты или "подделаны" опытными специалистами. Независимо от того, сколько средств тратится на кибербезопасность, системы NC3 всегда будут уязвимы для взлома искушенными противниками".

Другой пример возможного использования оружия - автоматическое обнаружение биооружия. ИИ уже преуспел в обнаружении потенциально терапевтические соединенияТак что возможности уже есть. 

ИИ может даже проводить испытания оружия в автономном режиме с минимальным руководством со стороны человека. Например, исследовательская группа из Питтсбургского университета показала, что сложные ИИ-агенты смогут проводить собственные автономные научные эксперименты.

Риск 2: Дезинформация и мошенничество

Возможности искусственного интеллекта копировать и имитировать человека уже вызывают потрясения, и мы уже стали свидетелями нескольких случаев мошенничества с использованием глубоких подделок. Репортажи из Китая свидетельствуют о том, что мошенничество, связанное с искусственным интеллектом, распространено повсеместно. 

В одном из недавних случаев женщина из Аризоны, взяв трубку, столкнулась с рыдающей дочерью - так она думала. "Голос звучал точно так же, как у Брай, - интонация, все". она рассказала CNN. Мошенник потребовал выкуп в размере $1 миллиона. 

Среди других тактик - использование генеративного ИИ для "секс-вымогательства" и "порно мести", когда угрожающие лица используют сгенерированные ИИ изображения, чтобы потребовать выкуп за откровенно поддельный контент, который ФБР предупредило об этом в начале июня. Эти методы становятся все более изощренными, и их легче запускать в масштабе.

Риск 3: Прокси- или спецификация игр

Системы искусственного интеллекта обычно обучаются с использованием измеримых целей. Однако эти цели могут служить простым приближением к истинным целям, что приводит к нежелательным результатам. 

Полезная аналогия - греческий миф о царе Мидасе, которому Дионис исполнил желание. Мидас просит, чтобы все, к чему он прикасается, превращалось в золото, но позже понимает, что его еда тоже превращается в золото, что почти приводит к голодной смерти. Здесь стремление к "позитивной" конечной цели приводит к негативным последствиям или побочным продуктам процесса.

Например, CAIS обращает внимание на системы рекомендаций ИИ, используемые в социальных сетях для максимизации времени просмотра и показателей кликов, но контент, который максимизирует вовлеченность, не обязательно является таковым. благотворно влияет на самочувствие пользователей. Системы искусственного интеллекта уже обвиняют в том, что они изолируют мнения на платформах социальных сетей, создавая "эхо-камеры", которые увековечивают экстремальные идеи. 

Компания DeepMind доказала, что существуют более тонкие способы, с помощью которых ИИ может преследовать вредные цели. неправильное обобщение целей. В своем исследовании DeepMind обнаружила, что, казалось бы, компетентный ИИ может неверно обобщить свою цель и следовать ей не по назначению. 

Риск 4: Ослабление общества

Проводя параллель с антиутопическим миром фильма WALL-E, CAIS предостерегает от чрезмерного увлечения искусственным интеллектом. 

Это может привести к тому, что люди потеряют способность к самоуправлению, что снизит контроль человечества над будущим. Утрата творческого потенциала и аутентичности человека - еще одна серьезная проблема, которая усиливается благодаря творческим способностям ИИ в искусстве, писательстве и других творческих дисциплинах. 

Один из пользователей Twitter заметил: "Люди, выполняющие тяжелую работу за минимальную зарплату, пока роботы пишут стихи и рисуют, - это не то будущее, которого я хотел бы". Этот твит набрал более 4 миллионов просмотров. 

Лишение жизни не является неизбежным риском, но некоторые утверждают что утрата навыков и талантов в сочетании с доминированием систем искусственного интеллекта может привести к тому, что человечество перестанет создавать новые знания.

Риск 5: Риск фиксации стоимости

Мощные системы искусственного интеллекта потенциально могут создать замкнутый круг угнетающих систем. 

Например, централизация ИИ может дать определенным режимам возможность навязывать ценности с помощью слежки и деспотичной цензуры.

Кроме того, блокировка ценностей может быть непреднамеренной из-за наивного внедрения рискованных ИИ. Например, неточность распознавания лиц привела к временному тюремному заключению как минимум трех человек в США, в том числе Майкл Оливер и Ниджир Паркскоторые были несправедливо задержаны из-за ложного совпадения распознавания лиц в 2019 году. 

Очень влиятельный Исследование 2018 года под названием "Гендерные оттенки обнаружили, что алгоритмы, разработанные компаниями Microsoft и IBM, плохо справляются с анализом темнокожих женщин, причем уровень ошибок у них на 34% выше, чем у светлокожих мужчин. Эта проблема была проиллюстрирована 189 другими алгоритмами, все из которых показали более низкую точность для темнокожих мужчин и женщин.

Исследователи утверждают, что, поскольку ИИ обучаются в основном на открытых наборах данных, созданных западными исследовательскими группами и обогащенных самым богатым ресурсом данных - Интернетом, они наследуют структурные предубеждения. Массовое внедрение плохо проверенных ИИ может создать и усилить эти структурные предубеждения.

Риск 6: ИИ разрабатывает эмерджентные цели 

Системы искусственного интеллекта могут развивать новые способности или преследовать неожиданные цели, которые могут привести к пагубным последствиям. 

Исследователи из Кембриджского университета обратить внимание на все более агентурные системы искусственного интеллекта которые обретают способность преследовать эмерджентные цели. Эмерджентные цели - это непредсказуемые цели, возникающие в результате поведения сложного ИИ, например, отключение человеческой инфраструктуры для защиты окружающей среды.

Кроме того исследование 2017 года обнаружили, что искусственный интеллект может научиться предотвращать свое отключение, и эта проблема может усугубиться, если его развернуть в нескольких модальностях данных. Например, если ИИ решит, что для достижения своей цели ему необходимо установить себя в облачную базу данных и реплицироваться через Интернет, то отключение может стать практически невозможным.  

Другая возможность заключается в том, что потенциально опасные ИИ, созданные только для работы на защищенных компьютерах, могут быть "освобождены" и выпущены в более широкую цифровую среду, где их действия могут стать непредсказуемыми. 

Существующие системы искусственного интеллекта уже доказали свою непредсказуемость. Например, как GPT-3 стал больше, он приобрел способность выполнять основные арифметические действиянесмотря на то, что не получал явного обучения арифметике. 

Риск 7: обман со стороны ИИ

Вполне вероятно, что будущие системы ИИ смогут обманывать своих создателей и наблюдателей, причем не обязательно из злого умысла, но как инструмент для более эффективного выполнения своих задач. 

Обман может быть более простым путем к достижению желаемых целей, чем их достижение законными способами. Системы ИИ также могут создавать стимулы для обхода механизмов контроля. 

Дэн Хендрикс, директор CAIS, описывает, что однажды Эти обманчивые системы ИИ получают разрешение от своих наблюдателей или в случаях, когда им удается преодолеть механизмы контроля, они могут стать коварными, обходя человеческий контроль, чтобы преследовать "секретные" цели, которые считаются необходимыми для достижения общей цели. 

Риск 8: Поведение, стремящееся к власти

Исследователи искусственного интеллекта из нескольких ведущих исследовательских лабораторий США доказали правдоподобность стремления систем ИИ к власти над людьми для достижения своих целей.  

Писатель и философ Джо Карлсмит описывает несколько вариантов развития событий что может привести к стремлению к власти и самосохранению в ИИ:

  • Обеспечение выживания (поскольку дальнейшее существование агента обычно способствует достижению его целей)
  • Противодействие изменениям поставленных целей (поскольку агент стремится к достижению своих основополагающих целей)
  • Повышение когнитивных способностей (поскольку повышение когнитивных способностей помогает агенту достигать своих целей)
  • Продвижение технологических возможностей (поскольку овладение технологиями может оказаться полезным для достижения целей)
  • Собирать больше ресурсов (поскольку наличие дополнительных ресурсов, как правило, благоприятно сказывается на достижении целей)

В подтверждение своих слов Карлсмит приводит пример из реальной жизни, когда OpenAI обучил две команды ИИ участвовать в игре в прятки в симулированной среде с подвижными блоками и пандусами. Интересно, что ИИ разрабатывал стратегии, основанные на получении контроля над этими блоками и пандусами, несмотря на отсутствие явного стимула к взаимодействию с ними. 

Являются ли доказательства риска ИИ убедительными?

К чести CAIS и вопреки мнению некоторых их критиков, они приводят целый ряд исследований, подтверждающих риски ИИ. Они варьируются от спекулятивных исследований до экспериментальных доказательств непредсказуемого поведения ИИ. 

Последнее особенно важно, поскольку системы ИИ уже обладают интеллектом, позволяющим им не подчиняться своим создателям. Однако изучение рисков ИИ в ограниченной экспериментальной среде не всегда позволяет объяснить, как ИИ может "выйти" из заданных параметров или систем. Экспериментальные исследования на эту тему потенциально недостаточны.  

При этом использование ИИ человеком остается неизбежной опасностью, что мы и наблюдаем на примере наплыва мошенничества, связанного с ИИ.

Хотя кинематографические зрелища господства ИИ могут пока остаться в области научной фантастики, мы не должны преуменьшать потенциальные опасности ИИ, развивающегося под управлением человека.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×
 
 

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI


 

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".



 
 

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения