Знаменитая поговорка: "Чем больше мы знаем, тем больше мы не знаем", безусловно, справедлива и для ИИ.
Чем больше мы узнаем об искусственном интеллекте, тем меньше мы знаем о нем наверняка.
Эксперты и лидеры отрасли часто сталкиваются с ожесточенными спорами о том, где сейчас находится ИИ и куда он движется. Они не могут прийти к согласию по таким, казалось бы, элементарным понятиям, как машинный интеллект, сознание и безопасность.
Превзойдут ли когда-нибудь машины интеллект своих создателей-людей? Ускоряется ли развитие ИИ на пути к технологической сингулярности, или мы стоим на пороге "зимы ИИ"?
И, пожалуй, самое главное: как обеспечить безопасность и пользу развития ИИ, если эксперты не могут прийти к единому мнению о том, что ждет нас в будущем?
ИИ погружен в туман неопределенности. Лучшее, что мы можем сделать, - это изучить перспективы и прийти к обоснованным, но в то же время изменчивым взглядам на отрасль, которая постоянно находится в движении.
Дискуссия первая: Интеллект ИИ
С каждым новым поколением генеративных моделей ИИ возобновляются дебаты о машинном интеллекте.
Элон Маск недавно разжег дискуссию об интеллекте ИИ, заявив: "В следующем году ИИ, вероятно, будет умнее любого человека. К 2029 году ИИ, вероятно, будет умнее всех людей вместе взятых".
В следующем году ИИ, вероятно, будет умнее любого человека. К 2029 году ИИ, вероятно, будет умнее всех людей вместе взятых. https://t.co/RO3g2OCk9x
- Элон Маск (@elonmusk) 13 марта 2024 года
Маска тут же опроверг главный научный сотрудник Meta по искусственному интеллекту и выдающийся исследователь ИИ Ян ЛеКун, который сказал: "Нет. Если бы это было так, у нас были бы системы ИИ, которые могли бы научиться водить машину за 20 часов практики, как любой 17-летний подросток. Но у нас до сих пор нет полностью автономного, надежного самовождения, хотя у нас (у вас) есть миллионы часов *меченых* обучающих данных".
Нет.
Если бы это было так, у нас были бы системы ИИ, способные за 20 часов практики научить себя водить машину, как любого 17-летнего подростка.Но у нас до сих пор нет полностью автономного и надежного вождения, хотя у нас (у вас) есть миллионы часов *маркированных* обучающих данных.
- Янн ЛеКун (@ylecun) 14 марта 2024 года
Этот разговор - всего лишь микрокосм неоднозначной пустоты во мнении экспертов и лидеров в области ИИ.
Это разговор, который приводит к бесконечной спирали интерпретаций с минимальным консенсусомкак показывают дико контрастирующие мнения влиятельных технологов за последний год или около того (информация из Улучшить новости):
- Джеффри Хинтон: "Цифровой интеллект" может обогнать нас в течение "5-20 лет".
- Ян ЛеКун: Общество, скорее всего, получит ИИ "кошачьего" или "собачьего" уровня за несколько лет до появления ИИ человеческого уровня.
- Демис Хассабис: Мы можем достичь "чего-то похожего на AGI или AGI-подобного в следующем десятилетии".
- Гэри Маркус: "В конце концов мы достигнем AGI... и вполне возможно, что еще до конца этого века".
- Джеффри Хинтон: "Современные ИИ, такие как GPT-4, "затмевают человека" в общих знаниях и вскоре могут сделать это и в рассуждениях.
- Джеффри Хинтон: ИИ уже "очень близок к этому" и в будущем будет "намного умнее нас".
- Элон Маск: "Впервые мы получим нечто, что будет умнее самого умного человека".
- Элон Маск: "Я буду удивлен, если к [2029 году] у нас не будет AGI".
- Сэм Альтман: "[Мы] можем прийти к реальному AGI в следующем десятилетии".
- Йошуа Бенгио: "Сверхчеловеческий ИИ" будет достигнут "между несколькими годами и парой десятилетий".
- Дарио Амодеи: ИИ "человеческого уровня" может появиться через "два-три года".
- Сэм Альтман: ИИ может превзойти "уровень экспертных навыков" в большинстве областей в течение десятилетия.
- Гэри Маркус: "Я не думаю, что мы настолько близки к машинам, которые более разумны, чем мы".
Топ-лидеры в области ИИ сильно расходятся во мнениях о том, когда ИИ обгонит человеческий интеллект. 2 или 100 лет - что думаете вы? @ylecun @GaryMarcus @geoffreyhinton @sama https://t.co/59t8cKw5p5
- Макс Тегмарк (@tegmark) 18 марта 2024 года
В споре о машинном интеллекте нет однозначно правых или виноватых. Все зависит от субъективной интерпретации интеллекта и от того, как системы ИИ соотносятся с этим определением.
Пессимисты могут указывать на потенциальные риски и непредвиденные последствия ИИ, подчеркивая необходимость осторожности. Они утверждают, что по мере того, как системы ИИ становятся все более автономными и мощными, у них могут появиться цели и поведение, не соответствующие человеческим ценностям, что приведет к катастрофическим последствиям.
Напротив, оптимисты могут сосредоточиться на преобразующем потенциале ИИ, представляя себе будущее, в котором машины будут работать вместе с людьми для решения сложных проблем и стимулирования инноваций. Они могут преуменьшать риски, утверждая, что опасения по поводу сверхразумного ИИ в значительной степени гипотетические и что преимущества перевешивают риски.
Суть проблемы заключается в сложности определения и количественной оценки интеллекта, особенно при сравнении таких несхожих сущностей, как люди и машины.
Например, даже Муха обладает развитыми нейронными схемами и может успешно избегать наших попыток схватить или поймать ее, перехитрив нас в этой узкой области. Подобные сравнения потенциально безграничны.
Выбирайте свои примеры интеллекта, и каждый может быть прав или не прав.
Дискуссия вторая: ускоряется или замедляется ИИ?
Будет ли развитие ИИ ускоряться или достигнет плато и замедлится?
Одни утверждают, что мы находимся в самом разгаре революции ИИ, и прорывы в этой области происходят буквально на глазах. Другие утверждают, что прогресс достиг плато, и область сталкивается с серьезными проблемами, которые могут замедлить развитие инноваций в ближайшие годы.
Генеративный ИИ - это итог десятилетий исследований и миллиардных вложений. Когда ChatGPT приземлится в 2022 году, технология уже достигнет высокого уровня в исследовательских средах, установив высокую планку и бросив общество в глубокий бой.
Возникший ажиотаж также привлек огромное финансирование для стартапов в области ИИ, от Anthropic до Inflection и от Stability AI до MidJourney.
В сочетании с огромными внутренними усилиями ветеранов Кремниевой долины - Meta, Google, Amazon, Nvidia и Microsoft - это привело к быстрому распространению инструментов искусственного интеллекта. GPT-3 быстро превратился в тяжеловесный GPT-4. Тем временем конкуренты, такие как LLM, например Claude 3 Opus, Гроук от xAI и MistralТакже отличились модели Meta с открытым исходным кодом.
Некоторые эксперты и технологи, такие как Сэм Альтман, Джеффри Хинтон, Йошио Бенгио, Демис Хассабис и Элон Маск, считают, что ускорение ИИ только началось.
Маск сказал, что генеративный ИИ - это как "разбудить демона", в то время как Альтман заявил, что контроль разума со стороны ИИ неизбежен (что Маск доказал с помощью последние достижения в Neuralink; см. ниже о том, как один человек сыграл партию в шахматы с помощью одной лишь мысли).
С другой стороны, такие эксперты, как Гэри Маркус и Янн ЛеКун, считают, что мы бьемся о кирпичные стены, а генеративный ИИ переживает период интроспекции или "зимы".
Это может быть вызвано практическими препятствиями, такими как растущие цены на энергию, ограничения грубых вычислений, регулирование и нехватка материалов.
Генеративный ИИ требует больших затрат на разработку и поддержку, и Монетизация не является простым делом. Технологические компании должны найти способы поддерживать инерцию, чтобы деньги продолжали поступать в отрасль.
Дискуссия третья: Безопасность ИИ
Разговоры об интеллекте и прогрессе ИИ также имеют отношение к безопасности ИИ. Если мы не можем договориться о том, что такое интеллект и как его измерять, как мы можем обеспечить безопасное проектирование и внедрение систем ИИ?
Отсутствие общего понимания интеллекта затрудняет разработку соответствующих мер безопасности и этических принципов развития ИИ.
Недооценивать интеллект ИИ - значит недооценивать необходимость контроля и регулирования безопасности ИИ.
И наоборот, переоценка или преувеличение возможностей ИИ искажает восприятие и чревато чрезмерным регулированием. Это может привести к сосредоточению власти в руках Большого технологического сообщества, которое доказало свое влияние на лоббирование и маневрирование в законодательстве. А если они оплошают, то смогут заплатить штрафы.
В прошлом году, затянувшиеся дебаты X среди Янна ЛеКуна, Джеффри Хинтона, Макса Тегмарка, Гэри Маркуса, Элона Маска и многих других видных деятелей ИИ-сообщества выявили глубокие разногласия в области безопасности ИИ. Большие технологии усердно занимаются саморегулированием, создавая "добровольные руководства", эффективность которых сомнительна.
Критики также утверждают, что регулирование позволяет Большим технологиям укрепление рыночных структурОни избавляются от разрушителей и устанавливают условия игры в отрасли по своему вкусу.
ЛеКун утверждает, что экзистенциальные риски ИИ преувеличены и используются как дымовая завеса большими технологическими компаниями, чтобы добиться принятия нормативных актов, которые подавят конкуренцию и консолидируют контроль.
ЛеКун и его сторонники также отмечают, что непосредственные риски ИИ, такие как дезинформация, глубокие подделки и предвзятость, уже наносят вред людям и требуют срочного внимания.
AltmanХассабис и Амодей - те, кто в настоящее время занимается массированным корпоративным лоббированием.
Именно они пытаются осуществить нормативный захват индустрии ИИ.
Вы, Джефф и Йошуа даете повод тем, кто лоббирует запрет на открытые разработки ИИ.Если...
- Янн ЛеКун (@ylecun) 29 октября 2023 года
С другой стороны, Хинтон, Бенджио, Хассабис и Маск бьют тревогу по поводу потенциальных экзистенциальных рисков ИИ.
Бенгио, ЛеКун и Хинтон, которых часто называют "крестными отцами ИИ" за разработку нейронных сетей, глубокого обучения и других методов ИИ в 90-х и начале 2000-х годов, остаются влиятельными и сегодня. Хинтон и Бенгио, чьи взгляды в целом совпадают, участвовали в недавней редкой встрече американских и китайских исследователей в Международный диалог по безопасности искусственного интеллекта в Пекине.
Кульминацией встречи стал в своем заявлении: "В разгар холодной войны международная научная и правительственная координация помогла предотвратить термоядерную катастрофу. Человечество снова должно координировать свои действия, чтобы предотвратить катастрофу, которая может возникнуть в результате применения беспрецедентных технологий".
Надо сказать, что Бенджио и Хинтон не имеют очевидной финансовой связи с Big Tech, и у них нет причин чрезмерно увеличивать риски, связанные с ИИ.
Хинтон сам поднял этот вопрос в споре с ЛеКуном и бывшим сооснователем Google Brain Эндрю Нг, подчеркнув, что он ушел из Google, чтобы свободно говорить о рисках ИИ.
Действительно, многие великие ученые на протяжении многих лет ставили под сомнение безопасность ИИ, включая покойного профессора Стивена Хокинга, который рассматривал эту технологию как экзистенциальный риск.
Эндрю Нг утверждает, что идея о том, что ИИ может сделать нас вымирающими, - это заговор больших технологий. Точка отсчета, которая не вписывается в эту теорию заговора, заключается в том, что я ушел из Google, чтобы свободно говорить об экзистенциальной угрозе.
- Джеффри Хинтон (@geoffreyhinton) 31 октября 2023 года
Эта бурлящая смесь полемических обменов оставляет мало места для того, чтобы люди могли занять золотую середину, что способствует формированию имиджа генеративного ИИ как полярной технологии.
В то же время регулирование ИИ стать геополитическим вопросомСША и Китай, несмотря на эскалацию напряженности в других ведомствах, предварительно сотрудничают в области безопасности ИИ.
Так же, как эксперты расходятся во мнениях о том, когда и как ИИ превзойдет человеческие возможности, они расходятся и в оценках рисков и проблем, связанных с разработкой безопасных и полезных систем ИИ.
Споры вокруг интеллекта ИИ носят не только принципиальный или философский характер - Они также являются вопросом управления.
Когда эксперты категорически расходятся во мнениях даже относительно базовых элементов интеллекта и безопасности ИИ, регулирование не может надеяться на то, что оно будет отвечать интересам людей.
Создание консенсуса потребует серьезного осознания со стороны экспертов, разработчиков ИИ, правительств и общества в целом.
Однако, помимо многих других проблем, для того чтобы направить ИИ в будущее, некоторым технологическим лидерам и экспертам придется признать, что они ошибались. А это будет нелегко.