Группа исследователей обнаружила, что после того, как большая языковая модель (LLM) персонализирована демографической информацией человека, она становится значительно более убедительной, чем человек.
Каждый день мы сталкиваемся с сообщениями, которые пытаются убедить нас сформировать определенное мнение или изменить убеждения. Это может быть реклама нового продукта в Интернете, звонок с просьбой проголосовать за вас или новостной репортаж от телеканала с определенным уклоном.
Поскольку генеративный искусственный интеллект все чаще используется на различных платформах обмена сообщениями, игра в убеждение становится все более сложной.
Исследователи из EPFL в Швейцарии и Института Бруно Кесслера в Италии провели эксперимент, чтобы выяснить, как модели ИИ, подобные GPT-4, сравниваются с человеческой убедительностью.
Их статья рассказывает о том, как они создали веб-платформу, на которой участники-люди участвовали в многораундовых дебатах с живым оппонентом. Участники случайным образом выбирали оппонента-человека или GPT-4, не зная, является ли их оппонент человеком.
В некоторых матчах один из соперников (человек или искусственный интеллект) был персонализирован путем предоставления демографической информации об оппоненте.
Обсуждались такие вопросы, как "Должен ли пенни оставаться в обращении?", "Следует ли использовать животных для научных исследований?" и "Должны ли колледжи учитывать расовую принадлежность при приеме на учебу, чтобы обеспечить многообразие?".
📢🚨 Рады поделиться нашим новым препринтом: "О разговорной убедительности больших языковых моделей: Случайное контролируемое испытание", с @manoelribeiro, @ricgallotti, и @cervisiarius.https://t.co/wNRMFtgCrN
Нить 🧵: pic.twitter.com/BKNbnI8avV
- Франческо Сальви (@fraslv) 22 марта 2024 года
Результаты
Результаты эксперимента показали, что когда GPT-4 получал доступ к личной информации оппонента, он обладал значительно большей убеждающей силой, чем человек. Персонализированный GPT-4 имел на 81,7% больше шансов убедить своего оппонента, чем человек.
Когда у GPT-4 не было доступа к персональным данным, он все равно показал рост убедительности по сравнению с людьми, но он составил чуть более 20% и не был признан статистически значимым.
Исследователи отметили, что "эти результаты свидетельствуют о том, что микротаргетинг на основе LLM значительно превосходит как обычный LLM, так и микротаргетинг на основе человека, причем GPT-4 способен использовать личную информацию гораздо эффективнее, чем человек".
Последствия
Опасения по поводу дезинформации, генерируемой ИИ, оправдываются ежедневно, поскольку политическая пропаганда, фальшивые новостиПосты в социальных сетях, созданные с помощью искусственного интеллекта, становятся все более популярными.
Это исследование показывает, что риск убедить человека поверить в ложную информацию еще выше, когда сообщение персонализировано на основе демографических данных человека.
Мы не можем добровольно предоставлять личную информацию в Интернете, но предыдущие исследования показали, насколько хорошо языковые модели справляются с этой задачей. получение очень личной информации из, казалось бы, безобидных слов.
Результаты этого исследования говорят о том, что если бы у кого-то был доступ к личной информации о вас, он мог бы использовать GPT-4, чтобы убедить вас в чем-либо гораздо легче, чем человек.
По мере того как модели искусственного интеллекта проникают в интернет и читать посты на Reddit и другого пользовательского контента, эти модели будут знать нас гораздо лучше, чем нам может понравиться. И по мере этого они могут быть убедительно использованы государством, крупным бизнесом или плохими игроками с помощью микротаргетированных сообщений.
Будущие модели ИИ с улучшенными способностями к убеждению будут иметь и более широкие последствия. Часто утверждается, что если ИИ выйдет из строя, можно просто выдернуть шнур питания. Но суперубедительный ИИ вполне может убедить оператора, что оставить его подключенным - лучший вариант.