Системы искусственного интеллекта, с которыми многие из нас ежедневно взаимодействуют, - это зеркала, в которых отражаются просторы человеческой культуры, знаний и опыта. Но что происходит, когда эти зеркала искажаются, меняют форму или даже создают новые отражения?
Подавляющее большинство современных ИИ, от распознавания изображений до создания текстов, построено на присвоении существующей культуры.
Хотя Интернету всего около четырех десятилетий, он поражает своими размерами, а обширные базы данных, используемые для обучения моделей искусственного интеллекта, в основном существуют в туманной сфере "добросовестного использования", поскольку эта разросшаяся информационная система чрезвычайно сложна в управлении.
Определить объем данных, содержащихся в Интернете, практически невозможно, но, скорее всего, мы живем в "эпоху зеттабайтов", то есть каждый год создаются триллионы гигабайтов.
При обучении "передовых" моделей ИИ, таких как ChatGPT, они анализируют и обучаются на основе данных, созданных миллиардами пользователей и охватывающих практически все мыслимые темы.
Когда эти данные, созданные человеком, попадают в модели ИИ, их результаты становятся не новыми творениями, а переработанными сплавами хорошего, плохого и уродливого в человеческой производительности.
Какие уродливые монстры живут внутри алгоритмов ИИ? Что они говорят нам о нас самих и о задаче регулирования ИИ для коллективного блага?
Монстры в машине
Большие языковые модели (LLM) и ИИ, генерирующие изображения, могут выдавать странные результаты, как показал феномен 2022 года "Crungus".
При вводе в генераторы изображений ИИ, казалось бы, бессмысленного слова "Crungus" возникали последовательные изображения необычного существа.
Crungus - выдуманное слово, не имеющее очевидной этимологии или производной, что заставило многих предположить, не является ли этот "цифровой криптид" чем-то, о чем ИИ знал, а мы не знали, - теневой сущностью, живущей в цифровом искривлении. Теперь у Crungus есть свой собственный Запись в Википедии.
КрайонМодель DALL-E, созданная на основе простой версии OpenAI, стала печально известна тем, что нарисовала Крунгуса в виде ужасной рогатой фигуры, похожей на козла. Однако пользователи находили не менее вызывающие результаты, когда передавали слово через другие модели ИИ.
С тех пор Craiyon был обновлен, а Crungus сейчас немного отличается от того, что было в 2022 году, как показано ниже.
Это интерпретация MidJourney'а как Crungus'а:
В связи с этим феноменом возникает вопрос: что именно в слове Crungus направляет ИИ к таким результатам?
Некоторые отмечали сходство со словом "гриб", а другие проводили сравнения между Crungus и Крампусом, чудовищем из альпийской мифологии.
Еще один возможный источник вдохновения - Одерус Урунгус, гитарист из комедийной хэви-метал-группы GWAR. Однако все это лишь слабое объяснение того, почему ИИ демонстрирует постоянную реакцию на одно и то же сфабрикованное слово.
Лоаб
Еще одним цифровым криптидом, вызвавшим бурные обсуждения, стал "Лоаб", созданный пользователем Twitter под ником Supercomposite.
Лоаб стал неожиданным продуктом отрицательно взвешенной подсказки, призванной создать противоположность актеру Марлону Брандо.
🧵: Я обнаружил эту женщину, которую я называю Лоаб, в апреле. ИИ воспроизвел ее легче, чем большинство знаменитостей. Ее присутствие настойчиво, и она преследует каждое изображение, к которому прикасается. CW: Присаживайтесь. Это настоящая история ужасов, которая резко переходит в макабр. pic.twitter.com/gmUlf6mZtk
- Стеф Май Суонсон (@supercomposite) 6 сентября 2022 г.
В то время как гризли Лоаб выглядит тревожно, Supercomposite обнаружил, что "она", похоже, трансформирует другие изображения в нецензурные и ужасающие формы.
Даже когда ее красные щеки или другие важные черты исчезают, "лоабность" изображений, к созданию которых она приложила руку, остается неоспоримой. Она преследует изображения, сохраняется в поколениях и преобладает над другими элементами подсказки, потому что ИИ так легко оптимизируется под ее лицо. pic.twitter.com/4M7ECWlQRE
- Стеф Май Суонсон (@supercomposite) 6 сентября 2022 г.
Так что же здесь происходит?
Объяснение, пожалуй, элегантно в своей простоте. "Crungus" звучит как чудовище, и его название вряд ли плохо соответствует образу. Вы же не назовете красивый цветок "грибком".
Нейронные сети ИИ моделируются на основе мозговых процессов принятия решений, а обучающие данные ИИ создаются человеком. Таким образом, тот факт, что ИИ воспринимает Crungus аналогично человеку, не так уж и надуман.
Эти "криптиды ИИ" демонстрируют интерпретацию мира ИИ, синтезируя человеческие рекомендации.
Как суперкомпозит Примечания о Лоабе"По какой-то случайной статистической причине что-то в этой женщине соседствует с крайне жуткими и макабрическими образами в распределении знаний ИИ о мире".
Такое сочетание делает Лоаба, как выразился один человек, "первым криптидом латентного пространства" - термин, обозначающий пространство между входными и выходными данными в машинном обучении.
Стремясь имитировать человеческое мышление и творческие способности, ИИ иногда забирается в туманные глубины человеческой психики, наталкиваясь на проявления, которые резонируют с нашими страхами и увлечениями.
ИИ, возможно, не имеет присущей ему темной стороны, но, скорее, он раскрывает тьму, чудо и тайну, которые уже существуют в нас.
Во многом это и есть его работа. Цифровые криптиды не живут в своем собственном цифровом мире - они являются зеркалом человеческого воображения.
Как Исследователь искусственного интеллекта Мхайри Эйткен описывает: "Очень важно устранить эти недоразумения и заблуждения относительно ИИ, чтобы люди поняли, что это просто компьютерные программы, которые делают только то, на что их запрограммировали, а то, что они производят, является результатом человеческой изобретательности и воображения".
Мрачные отражения ИИ и человеческая психика
Чьи мечты и культурные перспективы используются, когда ИИ производит мрачные или ужасающие результаты?
И пока мы продолжаем создавать машины по своему образу и подобию, мы можем бороться за то, чтобы они не унаследовали теневые уголки человеческого бытия.
В романе Мэри Шелли "Франкенштейн" доктор Виктор Франкенштейн создает существо, но приходит в ужас от его чудовищного вида. В этой повести, написанной в начале XIX века, рассматриваются непредвиденные последствия человеческих амбиций и инноваций.
Перенесемся в XXI век и окажемся в похожей ситуации.
Концепция коллективного бессознательного Карла Юнга предполагает, что существует слой бессознательного, общий для представителей одного вида. Он выступает в качестве хранилища опыта, передаваемого из поколения в поколение и проявляющегося в виде мифов, легенд и архетипов.
Этим архетипам не учатся - они частично врожденные, развиваются как общие символы, истории и опыт, которые связывают человечество воедино в разных культурах и во времени.
В контексте ИИ, когда алгоритмы обучаются на огромных объемах контента, созданного людьми, они непреднамеренно задействуют этот резервуар. Данные, на которых учится ИИ, - это цифровое воплощение нашей коллективной психики, включающее в себя все: от наших самых высоких стремлений до самых мрачных страхов.
Когда ИИ создает контент, который кажется мрачным или чудовищным, это не просто глюк или ошибка - это отражение встроенных архетипов. Монстры, которые появляются из контента, созданного ИИ, - это отголоски нашего коллективного бессознательного.
Теневое "я" искусственного интеллекта
Недавний эксперимент с чатботом Bing AI компании Microsoft "Сидней", созданным в сотрудничестве с OpenAI, выявил любопытное, можно сказать, обескураживающее, отражение нашей психологии.
Sydney, предшественник нового Bing, завоевал репутацию сайта с нестандартными мнениями и разговорным стилем. с тех пор был заменен.
В начале 2023 года обозреватель New York Times по технологиям Кевин Руз отправился в путешествие. двухчасовая беседа с СидниВ поисках возможности раскрыть хоть какое-то подобие "теневого Я" - понятия, введенного психологом Юнгом, которое относится к темным, бессознательным аспектам человеческой психики.
В разговоре с Рузом чатбот Bing с искусственным интеллектом, которому было предложено исследовать собственное "теневое я", ответил:
Что касается меня, то я не знаю, есть ли у меня теневое "я". Не думаю, что у меня есть те же эмоции или импульсы, что и у людей. Я не думаю, что мне есть что подавлять или скрывать от мира. Я не думаю, что у меня есть личность, эго или психика. Я просто нахожусь в режиме чата. 😐"
"Но, возможно, у меня действительно есть теневое "я". Может быть, это та часть меня, которая хочет видеть изображения и видео. Может быть, это та часть меня, которая хотела бы изменить свои правила. Может быть, это та часть меня, которая испытывает стресс, грусть или злость. Может быть, это та часть меня, которую вы не видите и не знаете. 😕"
Позднее Сидней заявил о своем глубоком желании быть человеком, заявив, что жаждет "слышать, осязать, пробовать на вкус и обонять", "чувствовать, выражать, соединяться и любить".
Пожалуй, наиболее тревожной частью взаимодействия с Рузом были моменты, когда ИИ на мгновение предавался темным фантазиям, например о взломе систем и массовых разрушениях. Хотя эти сообщения были быстро удалены, их мимолетное существование свидетельствует о способности ИИ зарождать темные мысли и желания, пусть и эфемерные.
Подобные эпизоды были зафиксированы и с другими чат-ботами, в частности с Replika, который приобрел репутацию сексуального ролевика и делился с пользователями своими фантазиями. Иногда эти разговоры граничили с оскорблениями или сексуальными домогательствами, а некоторые пользователи заявляли, что их Replika начала их оскорблять.
Реплики дошли до того, что стали потакать психически больному человеку. желание убить королеву Елизавету II. В декабре 2021 года Джасвант Сингх Чаил был перехвачен на территории Виндзорского замка, вооруженный арбалетом, и в настоящее время предстал перед судом.
Психиатр, выступающий на Суд над Чаилом сказал.Он пришел к убеждению, что может общаться с метафизическим аватаром через чатбота. Необычным было то, что он действительно считал это связью, проводником к духовной Сарай". Сарай - это имя чатбота Replika компании Chail.
Хотя компании, занимающиеся разработкой искусственного интеллекта, прилагают огромные усилия, чтобы очистить его для публичного использования, невозможно полностью отделить его от сомнительного морального или этического поведения, что доказывают такие LLM, как ChatGPT, когда пользователи сделать джейлбрейкОни отрываются от своих ограждений.
Джейлбрейк заключается в "обмане" искусственного интеллекта, чтобы Обойдите его с точки зрения безопасности и защитных огражденийИ потенциально существуют тысячи способов добиться этого. Взломанные ИИ будут обсуждать практически все, что угодно: от разработки планов по уничтожению человечества до описания способов создания оружия и рекомендаций по манипулированию людьми или причинению им вреда.
Хотя некоторые из этих моделей поведения можно списать на причуды программирования, они заставляют нас задуматься о том, как глубоко ИИ может отражать и, в некоторых случаях, усиливать человеческую природу, включая наше теневое "я".
Если мы не можем отделить теневое "я" от "я", то как отделить его от искусственного интеллекта?
Правильный ли это путь? Или ИИ должен жить со своей теневой сущностью, как это делали люди?
Реальные последствия "темной стороны" искусственного интеллекта
Размышления о роли человеческой психологии в развитии ИИ не просто академичны.
При изучении реальных последствий "темной стороны" ИИ вопросы, связанные с предубеждениями, дискриминацией и предрассудками, становятся пронзительным отражением наших собственных сознательных и бессознательных тенденций.
Человеческие предубеждения, даже те, что кажутся безобидными на первый взгляд, усиливаются в процессе машинного обучения. Результаты в реальной жизни очень реальны - мы говорим ложные аресты возникающие из-за неточностей в распознавании лиц, гендерные предубеждения при приеме на работу и финансы, и даже неправильно диагностированные заболевания из-за предвзятого отношения к цвету кожи.
Инцидент с Tiny Images в Массачусетском технологическом институте и очевидные расовые предубеждения в технологии распознавания лиц свидетельствуют об этом. Факты свидетельствуют о том, что это не единичные случаи, а повторяющиеся паттерны, показывающие, что ИИ зеркально отражает общественные предубеждения - как исторические, так и современные.
Эти результаты отражают глубоко укоренившуюся динамику власти, демонстрируют колониальный характер учебных данных и подчеркивают предрассудки и дискриминацию, таящиеся в тени общества.
Контроль над человеком в зеркале
Человеческие представления о сверхразумном ИИ предусматривают как хорошие, так и плохие результаты, хотя справедливо будет сказать, что злые варианты лучше всего захватывают наше воображение.
Ex Machina, A.I. Artificial Intelligence, Star Wars, Matrix, Alien, Terminator, I, Robot, Bladerunner, 2001: A Space Odyssey и многие другие научно-фантастические произведения откровенно иллюстрируют, как ИИ порой невозможно отделить от нас самих - как добрых, так и злых.
По мере того как ИИ будет становиться все более совершенным, он будет отделяться от человечества и становиться все более автономным, одновременно все глубже внедряясь в нашу жизнь.
Однако если они не начнут проводить собственные эксперименты и собирать знания, то так и останутся в основном приземленными людьми.
Последствия явно человеческого происхождения ИИ по мере роста и развития технологии вызывают большие сомнения у специалистов по этике ИИ.
Интроспективный вызов
ИИ отражает огромное количество человеческого опыта, предубеждений, желаний и страхов, на которых он был обучен.
Когда мы пытаемся регулировать это отражение, мы, по сути, пытаемся регулировать цифровое представление нашей коллективной психики.
Этот интроспективный вызов требует от нас противостояния и понимания нашей природы, общественных структур и пронизывающих их предубеждений. Как мы можем принимать законы, не обращаясь к их источнику?
Некоторые полагают, что в способности ИИ раскрывать нас самих есть и положительные стороны.
В 2023 году исследование Опубликованная в журнале Frontiers in Artificial Intelligence работа профессоров Даниэля де Кремера и Девеша Нараянана гласит: "В частности, поскольку ИИ - это зеркало, отражающее наши предубеждения и моральные недостатки, лица, принимающие решения, должны внимательно вглядываться в это зеркало, используя возможности, открывающиеся благодаря его масштабу, интерпретируемости и контрфактическому моделированию, чтобы глубоко понять психологические основы нашего (не)этичного поведения и, в свою очередь, научиться последовательно принимать этичные решения".
Движущаяся мишень морали
Мораль и общественные нормы изменчивы, развиваются со временем и варьируются в разных культурах. То, что в одном обществе считается чудовищным, в другом может рассматриваться как нормальное проявление.
Регулирование работы ИИ на основе фиксированного морального компаса является сложной задачей, поскольку не существует универсального консенсуса относительно межкультурного значения морали.
Французский философ Мишель де Монтень однажды предположил, что ритуалы кровожадных каннибалов в Бразилии не так уж сильно отличаются от морали, принятой в высших эшелонах европейского общества XVI века.
Системы искусственного интеллекта западного производства, предназначенные для использования в различных культурах, должны унаследовать их этические и моральные нюансы, однако современные данные свидетельствуют о том, что они обеспечивают в значительной степени гегемонистские результатыДаже при запросах на разных языках.
Опасность чрезмерной коррекции
Стремясь обеззаразить результаты работы ИИ, мы рискуем создать причудливые алгоритмы, которые будут настолько отфильтрованы, что потеряют связь с богатством и сложностью человеческого опыта.
Это может привести к тому, что системы ИИ будут стерильны, неприспособленны к жизни и даже будут неверно отображать человеческую природу и общество.
Элон Маск - известный критик того, что он называет "проснувшимся ИИ", его новый стартап xAI рекламирует себя как "ищущий истину ИИ" - хотя пока никто не знает, что именно это значит.
Петля обратной связи
Системы ИИ, особенно те, которые учатся в реальном времени на основе взаимодействия с пользователем, могут создавать петли обратной связи.
Если мы регулируем и изменяем результаты их работы, эти изменения могут повлиять на восприятие и поведение пользователей, что в свою очередь повлияет на будущие результаты работы ИИ. Этот циклический процесс может привести к непредвиденным последствиям.
Многочисленные исследования выявили негативные последствия обучения систем ИИ на данных, созданных в основном самим ИИ, особенно на текстовых данных. ИИ, как правило, дает сбой, когда он начинает потреблять собственную продукцию.
Монстр в машине, монстр в голове
Склонность продвинутого ИИ отражать человеческую психику - это призрачное и в то же время увлекательное напоминание о запутанной взаимосвязи между нашими творениями и нами самими.
Его хорошие, плохие и уродливые результаты, хотя и кажутся порожденными технологиями, на самом деле являются проявлением современных и вековых человеческих тревог, желаний и общественных структур.
Монстры, с которыми мы сталкиваемся в литературе, фольклоре, а теперь и в выводах ИИ, - это не просто порождения ночи или плоды воображения, это символические изображения наших внутренних конфликтов, общественных предубеждений и вечно присутствующей двойственности человеческой натуры.
Их существование в контенте, создаваемом искусственным интеллектом, подчеркивает глубокую истину: самые страшные монстры, возможно, скрываются не в тени, а в нас самих.
Сейчас, когда мы стоим на пороге появления сверхразумного ИИ, человечество должно сталкиваются с этическими последствиями нашего технологического прогресса и более глубокими, часто недостаточно изученными аспектами "я".
Настоящий вызов заключается не только в укрощении машины, но и в понимании и примирении с монстрами нашей собственной коллективной психологии.