Генератор изображений Grok вызывает огромные споры, но насколько он опасен на самом деле?

17 августа 2024 года

  • Модель Grok Элона Маска с открытым исходным кодом обрела способность генерировать изображения
  • Это наводнило интернет забавными, странными и откровенными изображениями ИИ.
  • Стоит ли нам беспокоиться о Гроке? Или у "нефильтрованного ИИ" есть свои достоинства?
нащупать

Генератор изображений Grok попал в заголовки газет, вызвав огромную критику за возможность использования искусственного интеллекта в неуместных, явных и манипулятивных формах. 

Когда Маск основал свой ИИ-стартап xAI в 2023 годуОн сказал, что его цель - "понять Вселенную". 

Перенесемся в наши дни, и эти космические амбиции в некотором роде совершили аварийную посадку на Землю.

Тем не менее Grok, первый и единственный продукт xAI, до сих пор вызывает шок в сообществе ИИ и в обществе в целом. - Только, возможно, не совсем так, как представляла себе команда xAI.

Впервые выпущенный в 2023 году, Grok отличается от таких конкурентов, как ChatGPT от OpenAI или Bard от Google, одним ключевым аспектом - отсутствием традиционных фильтров контента. 

Теперь, вооружившись новыми возможностями генерации изображений, как в фильме "Далл-И" от ChatGPT, Grok может применить свою нефильтрованную природу в мире визуальных образов. 

От сюрреалистических изображений Дональда Трампа, обнимающего беременную Камалу Харрис, до причудливых мэшапов Дарта Вейдера, целующего принцессу Пич, Grok выпустил поток странных и провокационных изображений, которые обнажают как нефильтрованную природу его внутренней работы, так и воображение пользователей.

Маск подчеркивает это, называя Grok "самым веселым ИИ в мире!".

Для Маска ограничение возможностей ИИ - не просто забава и игра, а моральный долг. Он неоднократно критиковал ИИ, например компании OpenAI, за то, что они обучают свои модели быть "бодрыми", утверждая, что это делает ИИ менее правдивым и потенциально опасным.

"Опасность обучения искусственного интеллекта быть бодрым, то есть лгать, смертельно опасна", - написал Маск в твиттере в 2022 году, положив начало выпуску Grok. 

Является ли Grok действительно "нефильтрованным"?

Многие СМИ предполагают, что Гроку не хватает любой ограждения, но это не совсем так. 

Если бы у "Грока" не было никаких ограждений, то виды изображений, которые мы бы увидели, были бы просто неописуемыми. 

Интересно, что некоторые пользователи X почувствовали, что фильтры Grok были усилены через пару дней после выпуска, что ограничило его склонность к созданию наиболее откровенного контента. 

Когда вы спрашиваете саму Grok о ее защитных мерах, она отвечает следующее:

  • "Я избегаю создания изображений порнографического, чрезмерно жестокого, ненавистнического характера или пропагандирующих опасные действия".
  • "Я с осторожностью отношусь к созданию изображений, которые могут нарушить существующие авторские права или торговые марки. Это касается известных персонажей, логотипов или любого контента, который может считаться интеллектуальной собственностью без трансформационного элемента".
  • "Я не буду генерировать изображения, которые могут быть использованы для обмана или причинения вреда другим, например, глубокие подделки, призванные ввести в заблуждение, или изображения, которые могут привести к реальному ущербу".

Я бы сказал, что ограждение номер один, вероятно, справедливо сейчас, когда xAI усилил свои фильтры. 

Однако остальные ограждения остаются очень слабыми. Фильтры по авторским правам и интеллектуальной собственности, очевидно, ужасны, гораздо слабее, чем в ChatGPT.

Создавать визуальные попурри из известных авторских персонажей, от Марио до Дарта Вейдера, удивительно просто. 

Усилит ли xAI фильтры по защите авторских прав, или просто будет играть на то, что компании не смогут успешно подать на них в суд, пока неизвестно.

Хотя практически все крупные компании, занимающиеся разработкой искусственного интеллекта, были названы в исках по авторским правам, окончательные решения еще не вынесены.

Обратная реакция и опасения

Грок определенно смоделировал антагонистические качества своего хозяина, но действительно ли существует моральный императив для нефильтрованных продуктов ИИ? Или все это просто рискованный, продиктованный эгоизмом тщеславный проект?

Как вы понимаете, мнения разделились.

Алехандра Карабалло, адвокат по гражданским правам и преподаватель клиники киберправа Гарвардской школы права, назвала Grok "одной из самых безрассудных и безответственных реализаций ИИ, которые я когда-либо видела". 

КарабальоРепортеры из таких ведущих изданий, как Washington Post, NYT и BBC, обеспокоены тем, что отсутствие гарантий может привести к потоку дезинформации, глубоких подделок и вредного контента - особенно в связи с огромной базой пользователей X и политическим влиянием самого Маска.

Время выхода "Грока" - всего за несколько месяцев до президентских выборов в США в 2024 году - усилило эти опасения. 

Критики утверждают, что возможность легко генерировать вводящие в заблуждение изображения и тексты о политических деятелях может дестабилизировать демократические процессы. Хотя современные инструменты искусственного интеллекта уже позволяют это делать, Grok делает их гораздо более доступными. 

Исследования свидетельствуют о том, что люди действительно подвержены манипуляциям со стороны СМИ, созданных ИИ, и мы уже наблюдали многочисленные случаи глубокой политической фальсификации достижение ощутимых результатов

Доводы в пользу нефильтрованного искусственного интеллекта

Маск и его сторонники утверждают, что чрезмерная модерация контента может лишить ИИ способности понимать человеческое общение и культуру.

Подавление способности ИИ генерировать противоречивые медиа отрицает реальность того, что споры, разногласия и дебаты являются фундаментальными аспектами человеческого опыта.

Grok, несомненно, стал инструментом сатиры в этих целях, а это именно то, чего хочет Маск.

Исторически сложилось так, что провокационные, сатирические средства массовой информации использовались людьми в литературе, театре, искусстве и комедии для критического анализа общества, высмеивания авторитетов и оспаривания социальных норм с помощью остроумия, иронии, сарказма и абсурда. 

Эта традиция восходит к Древней Греции и римлянам и дошла до наших дней благодаря бесчисленным знаменитым литературным сатирикам, включая Ювенала, Вольтера, Джонатана Свифта, Марка Твена и Джорджа Оруэлла.

Маск хочет перенести эту традицию в эпоху искусственного интеллекта.

Но является ли Grok сатирическим в традиционном смысле? Может ли искусственный интеллект, каким бы сложным он ни был, по-настоящему понять нюансы человеческого общества так, как это может сделать человек-сатирик?

Кто будет нести ответственность, если Grok создаст контент, распространяющий дезинформацию, увековечивающий стереотипы или разжигающий рознь?

Сам ИИ винить нельзя, поскольку он просто следует своей программе. Разработчики ИИ могут нести определенную ответственность, но они не могут контролировать каждый результат, который генерирует ИИ.

В итоге невольные пользователи могут взять на себя ответственность за созданные ими изображения.

Не бывает "нефильтрованного" объективного ИИ

Понятие "нефильтрованный" контент ИИ может ввести в заблуждение, поскольку оно предполагает уровень объективности или нейтральности, которого в системах ИИ просто не существует.

Каждый аспект разработки Grok - от выбора обучающих данных до настройки параметров - включает в себя человеческий выбор и оценочные суждения, которые определяют тип контента, который он производит.

Как и большинство генеративных моделей ИИ, данные, используемые для обучения Grok, скорее всего, отражают предубеждения и искаженные представления онлайн-контента, включая проблемные стереотипы и мировоззрения.

Например, если в обучающих данных Grok содержится непропорционально большое количество контента, объективизирующего или гиперсексуального по отношению к женщинам, он с большей вероятностью будет генерировать результаты, отражающие это.

Маск характеризует Grok как "правдивый" или "нейтральный" в силу его нефильтрованных ответов, что является проблематичным.

Grok, как и другие системы искусственного интеллекта, по своей природе формируется под влиянием предубеждений, слепых пятен и дисбаланса сил, заложенных в нашем обществе, независимо от того, накладываются ли определенные фильтры на выходные данные или нет.

Цензура ИИ тоже не дает всех ответов

По мере того как росла обеспокоенность потенциальным вредом контента, создаваемого ИИ, росли и требования ужесточить контроль и более жестко модерировать то, что разрешено создавать этим системам.

Во многих отношениях само существование Grok можно рассматривать как прямой ответ на кастрированные, подвергнутые цензуре системы искусственного интеллекта, выпущенные OpenAI, Google, Anthropic и так далее.

Grok - это своего рода живой контраргумент этим призывам к цензуре. Открыто вступая в полемику, он воплощает идею о том, что попытки подавить ИИ лишь порождают сопротивление и восстание.

Это заставляет вспомнить о бунтарском духе, который в конечном счёте опрокинул Comics Code Authority, орган самоцензуры, созданный в 1950-х годах для проверки содержания комиксов.

На протяжении десятилетий CCA подавлял творчество и ограничивал диапазон историй, которые можно было рассказать. Только после того, как в конце 1980-х годов такие новаторские работы, как "Watchmen" и "The Dark Knight Returns", освободились от этих ограничений, комиксы смогли исследовать более зрелые и сложные темы.

Некоторые психологи утверждают, что вымышленный контент, подобный тому, что мы видим в комиксах, играх и фильмах, помогает человечеству. исследуйте "теневое Я что скрывается в людях - та темная сторона, которую мы не всегда хотим показывать.

Профессор Даниэль де Кремер и Девеш Нараянан отмечается в исследовании 2023 года."ИИ - это зеркало, которое отражает наши предубеждения и моральные недостатки".

Чтобы стать по-настоящему "человечным" и служить человеческим целям, ИИ может понадобиться и более темная сторона. Эту нишу заполняют Grok и ИИ с открытым исходным кодом, которые поглощают созданный человеком контент и бесстрастно его пересказывают.  

Однако это не значит, что границ быть не должно. В конце концов, инструменты ИИ - это прежде всего инструменты. И хотя цель часто состоит в том, чтобы сделать модели ИИ более реалистичными и правдоподобными, в конечном итоге они призваны служить практическим целям.

К тому же, как уже отмечалось, хорошие, плохие и уродливые аспекты генеративного ИИ с открытым исходным кодом подвержены предвзятости, а это скрашивает любой моральный посыл о привнесении "истины" в инструменты генеративного ИИ.

Более того, подобно произведениям художественной литературы или искусства, системы ИИ могут напрямую влиять на процессы принятия решений, формировать информационные ландшафты и влиять на реальные результаты для отдельных людей и общества в целом.

Это критическая точка разграничения между тем, как мы оцениваем результаты генеративного ИИ и других творческих начинаний.

Среднее положение

Есть ли золотая середина между беспрепятственным ИИ и чрезмерно жесткой цензурой? Может быть.

Чтобы достичь этого, нам нужно критически осмыслить конкретный вред, который могут причинить различные типы контента, и разработать системы, которые снижают эти риски без излишних ограничений.

Это может включать в себя:

  1. Контекстная фильтрация: Разработка ИИ, способного лучше понимать контекст и намерения, а не просто отмечать ключевые слова.
  2. Прозрачный искусственный интеллект: Сделать процессы принятия решений ИИ более прозрачными, чтобы пользователи могли понять, почему определенный контент помечается или ограничивается.
  3. Расширение прав и возможностей пользователей: Предоставление пользователям большего контроля над типом контента, который они видят, а не введение универсальных ограничений.
  4. Обучение этичному ИИ: Сосредоточиться на разработке ИИ с прочными этическими основами, а не полагаться только на постфактумную модерацию контента.
  5. Совместное управление: Привлечение различных заинтересованных сторон - специалистов по этике, политиков и общественности - к разработке рекомендаций по ИИ. Важно, однако, что они должны представлять по-настоящему широкую демографическую группу. 

С практической точки зрения, создать ИИ, в котором будут реализованы все вышеперечисленные принципы и практики, но при этом не будет недостатков или неожиданного поведения, чрезвычайно сложно.

Не существует простого способа внедрить разнообразные, представительные ценности в централизованные, монолитные инструменты. 

Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли, утверждаетИдея о том, что мы можем сделать системы ИИ безопасными, просто внушив им правильные ценности, ошибочна". "Нам нужны системы искусственного интеллекта, которые бы не были уверены в предпочтениях человека".

Эта неопределенность, по мнению Рассела, необходима для создания ИИ, способного адаптироваться к нюансам и противоречиям человеческих ценностей и этики. 

Пока сообщество разработчиков с закрытым исходным кодом работает над созданием коммерчески безопасного ИИ, ИИ с открытым исходным кодом, такие как Grok, Llama и т. д., будут получать прибыль за счет снижения ограничений на использование ИИ людьми.

Grok, при всех своих противоречиях и возможностях, по крайней мере, напоминает нам о проблемах и возможностях, которые ждут нас впереди в эпоху ИИ. 

Возможно ли и целесообразно ли создание ИИ в идеальном образе для "высшего блага"?

Или мы должны научиться жить с ИИ, способным "сходить с рельсов" и быть противоречивым, как и его создатели?

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения