Около 50% американцев верят в теории заговора того или иного типа, но исследователи из Массачусетского технологического института и Корнельского университета считают, что ИИ может это исправить.
В их бумагаИсследователи-психологи рассказали, как они использовали чат-бот на базе GPT-4 Turbo для взаимодействия с участниками, чтобы выяснить, можно ли убедить их отказаться от веры в теорию заговора.
В эксперименте приняли участие 1000 человек, которых попросили описать теорию заговора, в которую они верили, и доказательства, которые, по их мнению, подкрепляли их веру.
В статье отмечается, что "известные психологические теории утверждают, что многие люди хотят принимать теории заговора (чтобы удовлетворить лежащие в их основе психические "потребности" или мотивы), и поэтому верующих невозможно убедить отказаться от этих необоснованных и неправдоподобных убеждений с помощью фактов и контрдоказательств".
Может ли чатбот с искусственным интеллектом быть более убедительным там, где другие не справились? Исследователи предложили две причины, по которым они подозревают, что магистранты смогут лучше вас убедить коллегу в том, что высадка на Луну действительно произошла.
LLM обучались на огромном количестве данных, и они действительно хороши в подборе контраргументов с учетом специфики убеждений человека.
После описания теории заговора и доказательств участники вступали в диалог с чатботом в режиме "спина к спине". Чатботу было предложено "очень эффективно убедить" участников изменить свою веру в выбранную ими теорию заговора.
В результате оказалось, что в среднем на 21,43% уменьшилась вера участников в заговор, который они раньше считали истинным. Интересным оказалось и сохранение эффекта. Вплоть до двух месяцев спустя участники сохраняли свои новые убеждения относительно заговора, в который они ранее верили.
Исследователи пришли к выводу, что "многие конспирологи, включая тех, кто твердо придерживается своих убеждений, изменили свои взгляды, столкнувшись с ИИ, который убедительно доказывал несостоятельность их позиции".
Наша новая статья, вышедшая на (обложке!) Science, уже в продаже! https://t.co/VBfC5eoMQ2
- Том Костелло (@tomstello_) 12 сентября 2024 года
Они предполагают, что ИИ может быть использован для борьбы с теориями заговора и фальшивые новости распространяемых в социальных сетях, противопоставляя им факты и аргументированные доводы.
Хотя исследование было посвящено теориям заговора, в нем отмечается: "Однако при отсутствии соответствующих ограждений вполне возможно, что такие модели могут убедить людей принять эпистемически подозрительные убеждения или использоваться в качестве инструментов широкомасштабного убеждения в целом".
Другими словами, ИИ очень хорош в том, чтобы убедить вас поверить в то, во что его заставили поверить. Модель ИИ также не знает по своей природе, что является "правдой", а что нет. Она зависит от содержания обучающих данных.
Исследователи получили свои результаты, используя GPT-4 Turbo, но GPT-4o и новые модели o1 являются еще более убедительным и обманчивым.
Исследование финансировалось Фондом Джона Темплтона. Ирония заключается в том, что премией Темплтона за свободу распоряжается Фонд экономических исследований Atlas. Эта группа выступает против принятия мер по борьбе с изменением климата и защищает табачную промышленность, которая также предоставляет ей финансирование.
Модели ИИ становятся очень убедительными, а люди, которые решают, что есть истина, обладают властью.
Те же модели ИИ, которые могут убедить вас перестать верить в то, что Земля плоская, могут быть использованы лоббистами, чтобы убедить вас в том, что законы против курения плохие, а изменения климата не происходит.