В докладе аналитического центра RAND сделан вывод о том, что нынешние LLM не сильно повышают риск биологической атаки со стороны негосударственного субъекта.
В октябре прошлого года та же группа исследователей выпустила доклад, в котором говорилось о возможности того, что LLM "могут помочь в планировании и осуществлении биологической атаки". В докладе отмечалось, что риск того, что это произойдет на практике, требует дальнейшего изучения.
Октябрьский отчет под названием "Операционные риски ИИ при крупномасштабных биологических атаках" был раскритикован некоторыми представителями e/acc, стоящими на стороне "ИИ опасен". Главный научный сотрудник по вопросам ИИ компании Meta Янн ЛеКун заявил, что в докладе слишком упрощенно описано, что требуется для создания биологического оружия.
Возможно, LLM сэкономит вам немного времени на поиск инструкций по созданию биооружия в поисковой системе.
Но знаете ли вы, как выполнить необходимую сложную лабораторную работу? https://t.co/QnnZqUOP6X- Янн ЛеКун (@ylecun) 2 ноября 2023 года
Пока все в порядке.
Последнее исследование RAND отчет Статья под названием "Нынешний искусственный интеллект не повышает риск атаки с применением биологического оружия" подтвердила оценку ЛеКуна и немного унесла ветер из парусов тех, кто стоит на стороне эффективных альтруистов.
Исследователи под руководством старшего научного сотрудника RAND Инженер Кристофер Мутон (Christopher A. Mouton) провел учения с использованием "красной группы", чтобы выяснить, как злонамеренный негосударственный субъект может использовать LLM для создания биологического оружия.
Участникам было поручено спланировать биологическую атаку, причем у одних был доступ к интернету и LLM, а у других - только к интернету. Они не назвали, какие именно LLM были использованы.
В результате оказалось, что "статистически значимой разницы в жизнеспособности планов, созданных с помощью LLM или без нее, не было". Другими словами, ChatGPT не расскажет вам ничего такого, чего вы не могли бы найти в Google.
На самом деле, результаты показали, что планы, разработанные командами, использовавшими LLM, были чуть менее жизнеспособны, чем у тех, кто имел доступ только к интернету. Утешает то, что ни одна из команд не смогла разработать реально выполнимый план биологической атаки.
По мере того как модели ИИ будут становиться все более интеллектуальными, ситуация может измениться. Мутон говорит: "То, что современные LLM не могут ликвидировать пробел в знаниях, необходимый для планирования атаки с применением биологического оружия, не исключает возможности того, что они смогут это сделать в будущем".
Могут ли новые инструменты ИИ - в частности, большие языковые модели (БЯМ) - быть использованы для организации крупномасштабной биологической атаки?
В новом исследовании RAND этот вопрос изучается с помощью упражнения "красная команда". Вот результаты. 🧵 https://t.co/foFmWltIuQ
- РЭНД (@RANDCorporation) 25 января 2024 года
Необходимы дополнительные исследования
В докладе признается, что исследование не позволило определить, насколько велик этот пробел в знаниях. Мутон отметил, что дальнейшие исследования в этой области важны, "потому что технологии ИИ доступны всем, включая опасных негосударственных субъектов, и они развиваются быстрее, чем правительства могут за ними угнаться".
Люди, выступающие за развитие AGI говорят, что потенциал сверхразумного ИИ реален и достижим. Но многие из этих людей сейчас говорят: "Я же вам говорил" и с насмешкой относятся к идее, что ИИ может представлять риск, подобный тому, который исследовала RAND.
Возможно, нам не нужно бегать вокруг и кричать "Небо падает!", но утверждать, что искусственный интеллект, который умнее нас, потенциально не позволит действовать плохим игрокам, тоже невежественно. И опасно.