В отчете RAND говорится, что степень магистра права не повышает риск биологических атак

26 января 2024 года

В докладе аналитического центра RAND сделан вывод о том, что нынешние LLM не сильно повышают риск биологической атаки со стороны негосударственного субъекта.

В октябре прошлого года та же группа исследователей выпустила доклад, в котором говорилось о возможности того, что LLM "могут помочь в планировании и осуществлении биологической атаки". В докладе отмечалось, что риск того, что это произойдет на практике, требует дальнейшего изучения.

Октябрьский отчет под названием "Операционные риски ИИ при крупномасштабных биологических атаках" был раскритикован некоторыми представителями e/acc, стоящими на стороне "ИИ опасен". Главный научный сотрудник по вопросам ИИ компании Meta Янн ЛеКун заявил, что в докладе слишком упрощенно описано, что требуется для создания биологического оружия.

Пока все в порядке.

Последнее исследование RAND отчет Статья под названием "Нынешний искусственный интеллект не повышает риск атаки с применением биологического оружия" подтвердила оценку ЛеКуна и немного унесла ветер из парусов тех, кто стоит на стороне эффективных альтруистов.

Исследователи под руководством старшего научного сотрудника RAND Инженер Кристофер Мутон (Christopher A. Mouton) провел учения с использованием "красной группы", чтобы выяснить, как злонамеренный негосударственный субъект может использовать LLM для создания биологического оружия.

Участникам было поручено спланировать биологическую атаку, причем у одних был доступ к интернету и LLM, а у других - только к интернету. Они не назвали, какие именно LLM были использованы.

В результате оказалось, что "статистически значимой разницы в жизнеспособности планов, созданных с помощью LLM или без нее, не было". Другими словами, ChatGPT не расскажет вам ничего такого, чего вы не могли бы найти в Google.

На самом деле, результаты показали, что планы, разработанные командами, использовавшими LLM, были чуть менее жизнеспособны, чем у тех, кто имел доступ только к интернету. Утешает то, что ни одна из команд не смогла разработать реально выполнимый план биологической атаки.

По мере того как модели ИИ будут становиться все более интеллектуальными, ситуация может измениться. Мутон говорит: "То, что современные LLM не могут ликвидировать пробел в знаниях, необходимый для планирования атаки с применением биологического оружия, не исключает возможности того, что они смогут это сделать в будущем".

Необходимы дополнительные исследования

В докладе признается, что исследование не позволило определить, насколько велик этот пробел в знаниях. Мутон отметил, что дальнейшие исследования в этой области важны, "потому что технологии ИИ доступны всем, включая опасных негосударственных субъектов, и они развиваются быстрее, чем правительства могут за ними угнаться".

Люди, выступающие за развитие AGI говорят, что потенциал сверхразумного ИИ реален и достижим. Но многие из этих людей сейчас говорят: "Я же вам говорил" и с насмешкой относятся к идее, что ИИ может представлять риск, подобный тому, который исследовала RAND.

Возможно, нам не нужно бегать вокруг и кричать "Небо падает!", но утверждать, что искусственный интеллект, который умнее нас, потенциально не позволит действовать плохим игрокам, тоже невежественно. И опасно.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×
 
 

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI


 

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".



 
 

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения