2 778 исследователей высказались о рисках ИИ - что мы узнаем из их ответов?

4 января 2024 года

Риски искусственного интеллекта

Масштабный опрос, охвативший 2700 исследователей ИИ, выявил разделение мнений относительно рисков ИИ.

Сайт исследование, проведенное компанией AI ImpactsВ крупнейшем в своем роде исследовании приняли участие специалисты, опубликовавшие свои исследования на шести ведущих конференциях по искусственному интеллекту.

Участникам было предложено высказать свое мнение о будущих этапах развития ИИ и их последствиях для общества. 

Примечательно, что почти 58% из этих исследователей считают, что существует 5% вероятность вымирания человечества или аналогичных ужасных последствий в результате развития ИИ.

Согласно другим данным, вероятность того, что в ближайшее десятилетие ИИ справится с самыми разными задачами - от сочинения музыки для чартов до создания полноценного сайта для обработки платежей, - составляет 50% или выше. 

Более сложные задания, такие как монтаж электропроводки или решение математических задач, как ожидается, займут больше времени, хотя Недавно компания DeepMind продемонстрировала Превосходная производительность ИИ при решении задач набора крышек и упаковки бункеров. 

Исследователи также оценивают вероятность того, что к 2047 году ИИ превзойдет человека во всех задачах, а к 2116 году автоматизирует все человеческие рабочие места, в 50%. Это зависит от того, что наука "останется непокоренной". 

Результаты, конечно, неоднозначны, но можно с уверенностью сказать, что риски ИИ пока не достигли критической массы. 

Катя Грейс из Института исследований машинного интеллекта в Калифорнии заявленное исследование"Это важный сигнал о том, что большинство исследователей ИИ не считают сильно неправдоподобным, что продвинутый ИИ уничтожит человечество".

Вот список основных статистических данных и выводов:

  • Вероятность достижения целей ИИ к 2028 году: Существует 50% вероятность того, что системы искусственного интеллекта смогут создать сайт для обработки платежей, сочинить песню, неотличимую от песни популярного музыканта, загрузить и настроить большую языковую модель (LLM).
  • Прогнозы производительности ИИ на уровне человека: Согласно исследованию, вероятность того, что к 2027 году машины без посторонней помощи превзойдут человека во всех задачах, составляет 10%, а к 2047 году - 50%. Прогноз на 2047 год сделан на 13 лет раньше, чем в 2022 году.

  • Автоматизация человеческих профессий: Существует 10% вероятность того, что все человеческие профессии станут полностью автоматизированными к 2037 году, и 50% вероятность того, что к 2116 году, по сравнению с прогнозом 2164, сделанным в 2022 году.
  • Перспективы долгосрочной ценности искусственного интеллекта68,3% респондентов считают, что хорошие результаты от "сверхчеловеческого ИИ" более вероятны, чем плохие, но 48% из этих оптимистов все еще видят по крайней мере 5% вероятность крайне плохих результатов, таких как вымирание человечества. В то же время 59% пессимистов считают, что вероятность крайне благоприятного исхода составляет 5% или больше.
  • Опасения по поводу сценариев, управляемых искусственным интеллектом: Более 70% исследователей выражают беспокойство по поводу таких вопросов, как глубокие подделки, манипулирование общественным мнением и искусственное оружие. Наибольшую тревогу вызвали глубокие подделки - 86% исследователей выразили беспокойство. 
  • Вероятностные оценки рисков ИИ: От 37,8% до 51,4% респондентов считают, что существует по крайней мере 10% вероятность того, что передовой ИИ может привести к таким серьезным последствиям, как вымирание человечества.

  • Оценки вероятности для HLMI (высокоуровневый машинный интеллект): Совокупный прогноз на 2023 год предсказывает вероятность достижения HLMI к 2047 году в размере 50%, что значительно отличается от прогноза на 2060 год, сделанного в 2022 году.
  • Вероятность полной автоматизации труда (FAOL): Прогноз на 2023 год оценивает вероятность появления FAOL к 2116 году в 50%, что на 48 лет раньше, чем аналогичный прогноз, сделанный в 2022 году.
  • Исследование безопасности ИИ: Около 70% участников опроса считают, что исследования в области безопасности ИИ должны быть более приоритетными, чем сейчас.

Сиюминутные риски затмевают долгосрочные

Помимо экзистенциальных рисков, в опросе подчеркивается, что значительное большинство исследователей испытывают непосредственные опасения по поводу ИИ.

Более 70% выражают серьезное беспокойство по поводу таких проблем, связанных с ИИ, как глубокие подделки, манипулирование общественным мнением, искусственное оружие, авторитарный контроль и растущее экономическое неравенство. 

Эмиль Торрес из Университета Кейс Вестерн Резерв в Огайо особо предупреждает о роли ИИ в распространении дезинформации по важнейшим темам и его влиянии на демократическое управление, заявляя: "У нас уже есть технология, здесь и сейчас, которая может серьезно подорвать демократию [США]". 

Политические кампании, запущенные политиками США и Канады, уже использовали ИИ для накрутки имиджа, и Робозвонки с искусственным интеллектом в настоящее время используются для привлечения избирателей. 

Еще один важный инцидентом стали недавние выборы в Словакии, где jЗа 48 часов до выборов в социальных сетях появился фальсифицированный аудиоклип, в котором ключевые политические фигуры якобы обсуждают тактику покупки голосов.

Он вызвал всеобщее замешательство в критический предвыборный период тишины. Сроки выпуска сделали оперативное противодействие его последствиям практически невозможным. 

Совсем недавно сгенерированные ИИ клеветнические кампании были направлены на горячие выборы в БангладешВ них содержатся материалы, направленные на дискредитацию противоположной стороны путем заявления о ее поддержке бомбардировок Газы, что является чувствительной темой в стране, где большинство населения составляют мусульмане. 

Временные рамки рисков ИИ вызывают споры

Сравнение краткосрочных и долгосрочных последствий ИИ стало предметом ожесточенных споров, когда Центр безопасности ИИ (CAIS) выпустил драматическое заявление в 2023 году, сравнивая риски ИИ с пандемиями и ядерной войной. 

В средствах массовой информации появились самые худшие прогнозы развития ИИ - от роботов-убийц до неуправляемых беспилотников на поле боя. 

Пока что риски связаны с тем, как люди используют искусственный интеллект, - в стиле "не ИИ убивает людей, а люди убивают его", - и беспокойство об экзистенциальных рисках иногда кажется затмевающим то, что происходит в данный момент.

Глубокие подделки, в частности, оказывают ощутимое влияние на человеческое общество.

ИИ Взрыв в Пентагоне
Это фальшивое изображение взрыва в Пентагоне, созданное искусственным интеллектом, временно повлиял на финансовые рынки в начале 2023 года. Источник: X.

Есть и еще одна сторона, о которой говорит Янн ЛеКун, видный деятель в области ИИ, который предполагает, что крупные технологические компании могут преувеличивать эти риски чтобы склонить регулирующие органы в свою пользу. 

Опасения, которые часто пропагандируются крупными технологиями, могут быть стратегической уловкой для поощрения жесткого регулирования, которое может поставить в невыгодное положение небольшие организации и инициативы с открытым исходным кодом. 

Это позволяет выявить более тонкую опасность - потенциальную монополизацию ИИ несколькими крупными компаниями, что может привести к подавлению инноваций и разнообразия в сфере ИИ.

Таким образом, крупные игроки в этой сфере, такие как Google и OpenAI, могут продвигать отрасль в своем собственном направлении, пока им удается удовлетворить требования по соблюдению нормативных требований.

Экзистенциальные риски - что говорят факты?

Диалог о рисках часто колеблется между двумя крайностями: скептицизмом и алармизмом. Итак, какие существуют фактические доказательства того, что ИИ может убить нас или иным образом уничтожить планету?

Идея использования ИИ в качестве оружия - это, пожалуй, самый неминуемый пример. В этом случае системы ИИ могут убивать людей при ограниченном контроле, а угрожающие субъекты могут использовать эту технологию для создания катастрофически эффективного оружия. 

Беспилотники, несомненно, уже способны уничтожать цели при минимальном участии человека, как это, например, произошло в Израильско-палестинский и российско-украинский конфликты уже есть.

Беспилотный самолет XQ-58A Valkyrie стал полностью автоматизированные с помощью искусственного интеллекта в 2023 году. Источник: Wikimedia Commons.

Более тонким фактором экзистенциального риска ИИ является ослабление. Речь идет не только о потере роботами рабочих мест, но и о потере важнейших человеческих способностей и творческого потенциала. Распространенной аналогией является фильм WALL-E, где похожие на сгустки крови люди заставляют роботов выполнять их приказы ценой самой Земли.

Есть некоторые доказательства что LLM, подобные ChatGPT, разрушают критическое мышление студентов, хотя пока еще слишком рано говорить об этом наверняка.

Учебные заведения стремятся использовать преимущества искусственного интеллекта, не уничтожая при этом академическую науку, управляемую людьми. Несколько известных учебных заведений условно одобрили использование этой технологии студентами.

WALL-E AI
В фильме WALL-E показан популярный пример "ослабления" ИИ или технологий.

Еще один достаточно хорошо задокументированный риск - это разработка ИИ эмерджентных целей, о чем говорится в исследование Кембриджского университета и компании DeepMindчто может привести к нежелательным и потенциально вредным последствиям для человеческого общества.

Эмерджентные цели могут привести к тому, что высокоинтеллектуальные ИИ будут ставить перед собой непредсказуемые задачи и, возможно, даже вырвутся за пределы своей архитектуры, чтобы "заразить" другие системы. 

В конечном счете, возможность драматического и насильственного исчезновения ИИ весьма умозрительна, и примеров или доказательств того, что это может произойти в ближайшее время, немного. Однако экспериментальные данные о возникающих целях и других потенциальных способах нанесения вреда автономными ИИ постоянно растут.

Пока же нам предстоит справиться с множеством непосредственных рисков, и не стоит забывать, что эти проблемы будут развиваться параллельно с изменением климата, потерей среды обитания, демографическим кризисом и другими рисками макроуровня.

В то время как потенциальные достижения ИИ вызывают восторг, ощущается и беспокойство по поводу его непосредственных рисков и долгосрочных последствий. 

Последнее исследование служит напоминанием о том, что в дискуссии об искусственном интеллекте не следует делать акцент на отдаленных экзистенциальных рисках в ущерб решению насущных проблем и этических дилемм, возникающих в связи с этой преобразующей технологией. 

По мере развития искусственного интеллекта достижение баланса в этих дебатах становится решающим фактором, позволяющим направить его развитие к полезным и безопасным для человечества результатам.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения