Anthropic показывает, что магистры Клод стали исключительно убедительными

9 апреля 2024 года
  • Антропологи исследовали убедительность семейства моделей Клода
  • Каждое поколение Клода создавало более убедительный контент, чем предыдущее.
  • Клод 3 Опус в большинстве тестов был не менее убедителен, чем люди
Убеждение с помощью искусственного интеллекта

Исследование Anthropic показало, что их последняя модель ИИ, Claude 3 Opus, может генерировать аргументы, столь же убедительные, как и созданные человеком. 

Сайт исследованиепод руководством Эсина Дурмуса, исследует взаимосвязь между масштабом модели и ее убедительностью в разных поколениях языковых моделей Anthropic.

Он сосредоточился на 28 сложных и новых темах, таких как модерация онлайн-контента и этические принципы освоения космоса, по которым люди, скорее всего, не имеют конкретных и давно устоявшихся взглядов. 

Исследователи сравнили убедительность аргументов, созданных с помощью различных антропных моделей, включая Клода 1, 2 и 3, с аргументами, написанными людьми.

Основные результаты исследования включают:

  • В исследовании использовались четыре разных задания для создания аргументов, генерируемых ИИ, что позволило охватить более широкий спектр стилей и техник убеждающего письма.
  • Claude 3 Opus, самая продвинутая модель Anthropic, выдавала аргументы, которые по убедительности статистически не отличались от аргументов, написанных человеком.
  • В разных поколениях моделей наблюдалась четкая тенденция к росту, причем каждое последующее поколение демонстрировало все большую убедительность как в компактных, так и во фронтальных моделях.
Антропный искусственный интеллект
Модели Клода Антропика с течением времени становятся все более убедительными. Источник: Антропология.

Команда Anthropic признает наличие ограничений и пишет: "Убеждение сложно изучать в лабораторных условиях - наши результаты могут не распространяться на реальный мир". 

Тем не менее, убедительные способности Клода, безусловно, впечатляют, и это не единственное исследование, демонстрирующее это.

В марте 2024 года команда из EPFL в Швейцарии и Института Бруно Кесслера в Италии обнаружила, что когда GPT-4 получал доступ к личной информации о своем оппоненте, он 81.7% более вероятно убедить своего противника, чем человек. 

Исследователи пришли к выводу, что "эти результаты свидетельствуют о том, что микротаргетинг на основе LLM значительно превосходит как обычный LLM, так и микротаргетинг на основе человека, причем GPT-4 способен использовать личную информацию гораздо эффективнее, чем человек".

Убеждающий ИИ для социальной инженерии

Самые очевидные риски убеждающих LLM - принуждение и социальная инженерия. 

Как утверждает Anthropic, "убедительность языковых моделей вызывает обоснованную озабоченность общества по поводу безопасного развертывания и потенциального злоупотребления. Способность оценить и количественно оценить эти риски имеет решающее значение для разработки ответственных мер защиты".

Мы также должны помнить о том, как растущая убедительность языковых моделей ИИ может сочетаться с передовой технологией клонирования голоса, такой как OpenAI's Voice Engine, которая OpenAI посчитала рискованным выпускать

VoiceEngine требуется всего 15 секунд, чтобы реалистично клонировать голос, который можно использовать практически для любых целей, включая изощренное мошенничество или социальную инженерию. 

Глубокое мошенничество уже широко распространены и будет расти, если угрожающие лица соединят технологию клонирования голоса с искусственным интеллектом, обладающим пугающими навыками убеждения.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×
 
 

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI


 

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".



 
 

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения