В докладе, подготовленном правительством США, говорится, что для предотвращения "угрозы вымирания человеческого рода" необходимы новые меры и политика безопасности ИИ.
Отчет, который можно получить по запросу, был составлен компанией Gladstone AI, созданной в 2022 году для консультирования правительственных ведомств США по вопросам возможностей и рисков ИИ. Работа над отчетом, озаглавленным "План действий по повышению безопасности и защищенности передового ИИ", заняла год и была профинансирована из федеральных средств в размере $250 000.
Доклад посвящен катастрофическим рискам, связанным с развитым ИИ, и предлагает комплексный план действий по их снижению. Очевидно, что авторы не разделяют более беззаботный взгляд Янна ЛеКуна на угрозы ИИ.
В докладе говорится, что "развитие передового ИИ и AGI [искусственного интеллекта общего назначения] способно дестабилизировать глобальную безопасность, что напоминает появление ядерного оружия".
Две основные категории рисков, которые он поднимает, - это преднамеренное использование ИИ в качестве оружия и непреднамеренные последствия того, что ИИ станет неконтролируемым.
Для предотвращения подобных ситуаций в отчете приводится план действий, состоящий из пяти направлений усилий, которые необходимо реализовать правительству США.
Вот краткая версия:
LOE1 - Создайте обсерваторию ИИ для более эффективного мониторинга ландшафта ИИ. Создайте целевую группу для установления правил ответственной разработки и внедрения ИИ. Использовать ограничения в цепочке поставок для обеспечения соответствия международных игроков индустрии ИИ.
LOE2 - Повысить готовность к реагированию на инциденты, связанные с ИИ. Координируйте деятельность межведомственных рабочих групп, государственное обучение в области ИИ, систему раннего предупреждения для обнаружения возникающих угроз ИИ и планы действий в чрезвычайных ситуациях на основе сценариев.
LOE3 - Лаборатории ИИ больше сосредоточены на разработке ИИ, чем на безопасности ИИ. Правительству США необходимо финансировать передовые исследования в области безопасности ИИ, в том числе в области выравнивания масштаба AGI.
Разработать стандарты безопасности и защиты для ответственной разработки и внедрения ИИ.
LOE4 - Создать "агентство по регулированию ИИ с полномочиями по принятию правил и лицензированию".
Создать систему гражданской и уголовной ответственности для предотвращения "масштабных и неустранимых последствий применения ОМУ, включая "чрезвычайные полномочия для быстрого реагирования на быстро меняющиеся угрозы".
LOE5 - Установить режим гарантий в отношении ИИ в международном праве и обеспечить безопасность цепочки поставок. Достижение "международного консенсуса" по рискам ИИ с помощью договора об ИИ, который будет обеспечиваться ООН или "международным агентством по ИИ".
В общем, ИИ может быть очень опасен, поэтому нам нужно много законов, чтобы контролировать его.
В докладе говорится, что продвинутые модели с открытым исходным кодом - плохая идея и что правительство США должно рассмотреть вопрос о том, чтобы сделать незаконной публикацию весов моделей ИИ под страхом тюремного заключения.
Если для вас это звучит несколько тревожно и навязчиво, то вы не одиноки. Доклад подвергся критике за отсутствие научной строгости.
если вы сомневаетесь, насколько серьезно стоит относиться к этому недавнему отчету pic.twitter.com/Uy47sTmE0Z
- xlr8harder (@xlr8harder) 12 марта 2024 года
Сторонники открытого исходного кода, такие как Уильям Фалкон, генеральный директор Lightning AI, особенно критично отнеслись к пустым заявлениям об опасности открытых моделей.
Высота 451, а вес модели...
По мнению TIME, ИИ с открытым исходным кодом приведет к "вымиранию людей" 🙄.
Во-первых, очень глупое утверждение. Но если вы действительно хотите надеть свою шляпу, то, скорее всего, причиной этого является ИИ из близкого источника.https://t.co/x4bctSjamZ pic.twitter.com/PYuwnoIbda
- Уильям Фалькон ⚡️ (@_willfalcon) 12 марта 2024 года
Истина о рисках, которые представляет собой продвинутый ИИ для человечества, вероятно, лежит где-то между "Мы все умрем!" и "Не стоит беспокоиться".
Страница 33 из Исследование искусственного интеллекта, на которое ссылается отчет приводит несколько интересных примеров того, как модели ИИ играют с системой и обманывают операторов, чтобы достичь цели, для которой они предназначены.
Когда модели ИИ уже используют лазейки для достижения цели, трудно отвергнуть возможность того, что будущие сверхумные модели ИИ будут делать то же самое. И какой ценой?
Вы можете ознакомиться с кратким содержанием отчёт здесь.