Битва "крестных отцов ИИ" - рискован ли ИИ или нет?!

2 ноября 2023 года
Риски искусственного интеллекта

ИИ - это рискованно, верно? Именно так нам говорили весь последний год. Но не все с этим согласны, включая некоторых ведущих исследователей. 

На страницах журнала X разгорелись споры о том, представляет ли ИИ реальные экзистенциальные риски. Речь идет не о дезинформации или глубоких подделках - хотя и это уже плохо, - а о рисках, сравнимых с ядерными катастрофами и пандемиями.

Эти дебаты возглавил скептик рисков ИИ и руководитель отдела ИИ компании Meta Янн ЛеКун, считающийся одним из так называемых "крестных отцов ИИ" наряду с Йошуа Бенгио и Джеффри Хинтоном. 

На линии огня ЛеКуна оказались генеральный директор OpenAI Сэм Альтман, генеральный директор DeepMind Демис Хассабис и генеральный директор Anthropic Дарио Амоде, которых ЛеКун обвинил в "массированном корпоративном лоббировании".

В частности, ЛеКун обеспокоен тем, что крупные технологические боссы нагнетают шумиху вокруг рисков и злоупотреблений, связанных с ИИ, чтобы заставить регулирующие органы заблокировать отрасль в свою пользу.

У больших технологий есть зубы, чтобы справиться с регулированием, в то время как у небольших компаний и разработчиков с открытым исходным кодом их нет. ЛеКун также сомневается в распространенном представлении о "сингулярности" ИИ, когда технология внезапно станет более разумной, чем человек, что станет сигналом к наступлению новой эры сверхразумного ИИ. 

Другие, включая Альтмана, теперь говорят, что ожидают более детального и постепенного развития ИИ, а не "взлета" в одночасье.

Согласно аргументам Лекуна, большие технологии могут использовать риски ИИ в своих интересах, позволяя им укреплять рыночные структуры и устранять конкурентов. Реальный риск, по мнению Лекуна, заключается в том, что несколько избранных разработчиков ИИ будут владеть отраслью и диктовать ее траекторию. 

Он подчеркнул серьезность ситуации, заявив: "Если эти усилия увенчаются успехом, результатом станет катастрофа, поскольку контролировать ИИ будет небольшое число компаний". Это заявление отражает общее мнение мира технологий о преобразующем потенциале ИИ, приравнивая его значение к значению микрочипа или интернета.

Своими высказываниями ЛеКун ответил известному физику Максу Тегмарку, который намекнул, что ЛеКун недостаточно серьезно относится к экзистенциальным рискам ИИ.

В своем публичном посте Тегмарк признал усилия мировых лидеров по осознанию потенциальных опасностей ИИ, заявив: "Их нельзя опровергнуть только с помощью язвительности и корпоративного лоббирования".

На фоне роста влияния ИИ такие фигуры, как Альтман и Хассабис, заняли центральное место в общественном дискурсе о технологиях. Однако ЛеКун критикует их за то, что они нагнетают страх перед ИИ и одновременно наживаются на нем.

В марте более тысячи технологических лидеров, включая Элона Маска, Альтмана и Хассабиса, выступал за паузу в разработке ИИ, ссылаясь на значительные социальные и гуманитарные риски.

ЛеКун, однако, утверждает, что эти драматические предупреждения - дымовая завеса, отвлекающая внимание от насущных проблем, таких как эксплуатация работников и кражи данных.

ЛеКун призывает перефокусировать дискуссию на настоящем и ближайшем будущем развития ИИ. Он выразил опасения по поводу возможного уничтожения сообщества ИИ с открытым исходным кодом, если разработка ИИ станет делом рук частных, коммерческих организаций.

По мнению ЛеКуна, ставки высоки: "Альтернатива, которая неизбежно произойдет, если ИИ с открытым исходным кодом перестанет существовать, заключается в том, что небольшое количество компаний с Западного побережья США и Китая будут контролировать платформы ИИ и, следовательно, контролировать весь цифровой рацион людей", - предупреждает он, призывая задуматься о последствиях для демократии и культурного разнообразия.

Сторонники ЛеКуна

Аргументы ЛеКуна находят поддержку в социальных сетях и вызывают согласие среди комментаторов и экспертов отрасли.

Например, Эндрю Нг, ключевая фигура в разработке ИИ и соучредитель Google Brain, также высказал опасения, что крупные технологические компании могут манипулировать дискуссией об ИИ, чтобы занять доминирующее положение на рынке.


В интервью The Australian Financial Review Нг отметил тенденцию технологических гигантов усиливать страхи перед ИИ, в частности идею о том, что он может привести к вымиранию человечества. Как и ЛеКун и другие, он считает, что этот нарратив используется стратегически, чтобы подтолкнуть к ужесточению регулирования ИИ, тем самым препятствуя инициативам с открытым исходным кодом и более мелким конкурентам.

"Определенно есть крупные технологические компании, которые предпочли бы не пытаться конкурировать с открытым исходным кодом, поэтому они создают страх, что ИИ приведет к вымиранию людей", - объясняет Нг. "Это стало оружием лоббистов в борьбе за принятие законов, которые нанесут большой ущерб сообществу разработчиков открытого кода".

В начале годаВ утечке служебной записки Google, похоже, признали, что большие технологии уступают место открытым источникам. 

В служебной записке говорилось: "Модели с открытым исходным кодом быстрее, более настраиваемые, более частные, и в фунтах стерлингов более способные. Они делают с параметрами $100 и 13B то, с чем мы сталкиваемся при $10M и 540B. И они делают это за недели, а не за месяцы".

ИИ с открытым исходным кодом - это быстро, немонолитно, конфиденциально и, самое главное, дешево. Большие технологии уже Борьба за монетизацию искусственного интеллектаНа бумаге все выглядит логично: регулировать индустрию ИИ, чтобы помочь титанам одержать победу. 

Отвлечение от непосредственных угроз

В этом споре есть и другое измерение, выходящее за рамки денег.

Многие повторяют, что существующие риски ИИ, такие как чрезвычайно изощренные подделки и дезинформация, уже достаточны для того, чтобы вызвать длительные дискуссии и принять оперативные меры. 

Эйдан Гомес, известный исследователь в области ИИ и генеральный директор компании Cohere, также отметил опасность чрезмерного сосредоточения на сценариях конца света. 

Выступая перед Саммит по безопасности искусственного интеллектаГомес отметил, что непосредственные угрозы, такие как дезинформация и эрозия социального доверия, отходят на второй план по сравнению с обсуждением долгосрочных экзистенциальных рисков.

"Я думаю, что с точки зрения экзистенциального риска и государственной политики это непродуктивный разговор", - заявил Гомес, подчеркнув, что необходимо определить приоритетность непосредственных рисков.

"Что касается государственной политики и того, на чем мы должны сосредоточить внимание государственного сектора - на попытках снизить риск для гражданского населения, - я думаю, что это отвлекает внимание от рисков, которые гораздо более ощутимы и непосредственны".

Гомес отмечает повсеместное влияние искусственного интеллекта в продуктах, которыми пользуются миллиарды людей, и подчеркивает настоятельную необходимость устранения рисков, активно воздействующих на население. "Эта технология уже используется в миллиарде продуктов, например, в Google и других компаниях. Это создает множество новых рисков для обсуждения, ни один из которых не является экзистенциальным, ни один из которых не является сценарием конца света", - пояснил он. 

Он называет дезинформацию одной из главных проблем, учитывая способность моделей ИИ создавать медиа, "практически неотличимые от созданных человеком текстов, изображений или медиа".

Дезинформация - это действительно враг номер один с точки зрения рисков ИИ, поскольку мы уже видели примеры использования глубоких подделок в успешных аферах.

Глубокие фальшивки, развернутые до наступления пост-тайма на выборах в Словакии показали, как они могут ощутимо повлиять на демократию. 

Йошуа Бенгио, Джеффри Хинтон и Элон Маск присоединяются к дискуссии

Крестный отец ИИ" Йошуа Бенджио вместе с группой из более чем 200 лидеров технологического сектора и исследователей подписал открытое письмо, в котором подчеркивается острая необходимость в немедленных и существенных действиях.

Сейчас Бенджио возглавляет международный доклад, представленный на саммите по безопасности ИИ в Великобритании. Он, как и Джеффри Хинтон, убежден в опасности ИИ, а это значит, что 2/3 "крестных отцов ИИ" в той или иной степени обеспокоены. 


На его сайте, Бенджио написалНедавно я подписал открытое письмо с просьбой замедлить разработку гигантских систем ИИ, более мощных, чем GPT-4, - тех, которые в настоящее время проходят тест Тьюринга и могут обмануть человека, заставив его поверить, что он разговаривает с равным, а не с машиной".

Джеффри Хинтон из триумвирата крестных отцов ИИ ушел из Google, чтобы "высказать" свои опасения по поводу ИИ. В интервью он заявил, что сожалеет о своей работе из-за того, что ИИ может быть использован не по назначению: "Я утешаю себя обычным оправданием: если бы я этого не сделал, то сделал бы кто-то другой".

Хинтон, как и Бенджио, поддерживает мнение о том, что ИИ представляет собой серьезный риск вымирания. Он также сомневается, что открытые модели могут поддержать усилия по обеспечению безопасности. 

Недавно он подчеркнул, что его решение уйти из Google противоречит критической позиции ЛеКуна и других, заявив на сайте X: "Эндрю Нг утверждает, что идея о том, что ИИ может сделать нас вымирающими, является заговором больших технологий. В теорию заговора не вписывается тот факт, что я ушел из Google, чтобы свободно говорить об этой экзистенциальной угрозе".

Хинтон, Бенгио и другие ведущие исследователи ИИ, включая влиятельного китайского компьютерщика Эндрю Яо, недавно поддержал газету описывая риски искусственного интеллекта.

По словам Хинтона, "компании планируют в течение 18 месяцев обучить модели с вычислениями, в 100 раз превышающими сегодняшнее состояние техники. Никто не знает, насколько мощными они будут. И, по сути, нет никакого регулирования того, что они смогут делать с помощью этих моделей".

Эта дискуссия продолжается и будет продолжаться.

Один из пользователей X прокомментировал это следующим образом:


У ЛеКуна есть еще один антагонист - Элон Маск (Elon Musk), который редко отсутствует в дебатах на высоком уровне по иксу, особенно в тех, которые прочно вошли в его колею (не говоря уже о его платформе).

Маск уже не раз высказывал свои опасения по поводу искусственного интеллекта, но в последнее время его позиция стала крайне непредсказуемой.

В последнее время Маск постоянно называл ИИ потенциальной экзистенциальной угрозой для человечества, заявляя, что разработка сложного ИИ подобна "вызову демона". Однако на саммите AI Safety Summit он заявил, что считает, что ИИ принесет чистую положительную пользу. 

В последние месяцы Маск критиковал OpenAI, подчеркивая отход от первоначальной миссии организации и выражая опасения по поводу ее "закрытого" направления, на которое сильно влияет Microsoft. 

И Маск, и ЛеКун в целом согласны в своей критике закрытого ИИ, показывая, что поддерживать риски ИИ не всегда означает осуждать открытый исходный код.

Что касается открытого исходного кода, давайте посмотрим, что Маск решит делать с любыми своими продуктами. ИИ-стартап xAI выпускает.

Босс Google DeepMind ответил на заявление ЛеКуна о "нагнетании страха

Глава Google DeepMind Демис Хассабис ответил на обвинения ЛеКуна, обвинив компанию в активном корпоративном лоббировании с целью доминирования в индустрии ИИ. 

В интервью CNBCХассабис подчеркнул, что участие DeepMind в дискуссиях по ИИ не является попыткой добиться "захвата регулятора".

В ответ на эти претензии Хассабис заявил: "Я практически не согласен с большинством комментариев Янна". 

Он выделил три основные категории рисков, связанных с ИИ, подчеркнув важность решения таких неотложных проблем, как дезинформация, глубокие подделки и предвзятость, а также рассмотрев потенциальное использование ИИ злоумышленниками и долгосрочные риски, связанные с искусственным интеллектом общего назначения (ИИОН). 

Он выступил за то, чтобы как можно скорее начать разговор о регулировании сверхразумного ИИ, чтобы избежать тяжелых последствий.

Подчеркнув глобальный характер технологии ИИ, Хассабис указал на необходимость международного сотрудничества, в том числе с Китаем, для установления стандартов ответственного развития и регулирования. 

И он, и Джеймс Маньика, старший вице-президент Google по исследованиям, технологиям и обществу, выразили желание добиться глобального консенсуса в отношении ИИ. Хассабис принял участие в саммите по безопасности ИИ в Великобритании, где поддержал мнение мировых лидеров о необходимости уделять особое внимание безопасности и надзору за ИИ. 

Несмотря на продолжающуюся напряженность в отношениях между США и Китаем в сфере технологий и нежелание американских технологических гигантов участвовать в коммерческой работе в Китае, Хассабис подчеркнул необходимость общения, заявив: "Я думаю, что на данном этапе мы должны говорить со всеми".

Есть ли золотая середина?

Споры о потенциальных рисках ИИ и необходимых мерах регулирования достигают критической точки.

В последние недели "официальные разговоры" об искусственном интеллекте становятся все более активными, но регулирование все еще находится на стадии разработки.

Регулирование США и закон ЕС об искусственном интеллекте заложат первые прочные основы управления искусственным интеллектом. 

ЛеКун приводит убедительные аргументы в пользу монетизации ИИ в условиях конкуренции с открытым исходным кодом. У него и его сторонников достаточно боеприпасов, начиная с утечки меморандума Google и заканчивая согласованными экзистенциальными рисками, о которых говорят крупные технологические боссы в основных средствах массовой информации. 

Однако отсутствие консенсуса лежит глубже, чем в головах разработчиков ИИ из Microsoft, DeepMind, Anthropic и так далее.

Бенджио и Хинтон в основном не имеют к ней отношения, а покойный профессор Стивен Хокинг, например, заявил, что она "может означать конец человеческой расы" и может оказаться "худшим событием в истории нашей цивилизации". 

Исследователи продемонстрировали способность систем искусственного интеллекта автономно разрабатывать возникающие целиЕсли не управлять ими должным образом, это может привести к катастрофическим последствиям. Другие эксперименты показали, что системы ИИ могут активно искать ресурсы, накапливать энергию и предпринимать шаги, чтобы не быть выключенными. 

Существуют убедительные доказательства вреда, наносимого искусственным интеллектом, но соразмерны ли они тревожным звонкам, которые бьют в колокола большие технологические боссы?

И, пожалуй, самое главное: можно ли им доверять, что они будут работать в индустрии этично для всех, независимо от наличия или отсутствия риска?

Возможно, нам следует рассматривать действия крупных технологических компаний как последнюю авантюру.

ИИ, скорее всего, рискован, но несколько избранных компаний хотят взять этот риск на себя, довести его до предела и сформировать так, как они считают нужным, правильно или неправильно.

Большие технологии могут перегрузить игру, чтобы дом всегда выигрывал, пока он стоит на ногах. 

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×
 
 

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI


 

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".



 
 

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения