Министерство торговли США опубликовало политику, поддерживающую открытые модели, что свидетельствует о взглядах администрации Байдена-Харриса на этот спорный вопрос.
Сторонники закрытых моделей, такие как OpenAI и Google, говорят о рисках открытых моделей, в то время как другие, такие как Meta, привержены вариантам ИИ с открытым исходным кодом.
Отчет DOC написанный подразделением Национальной администрации по телекоммуникациям и информации (NTIA), поддерживает "открытость искусственного интеллекта (ИИ), призывая к активному мониторингу рисков в мощных моделях ИИ".
Аргументы против открытого выпуска моделей обычно сводятся к риску двойного использования, поскольку недобросовестные субъекты могут изменить модели в соответствии со своими неблаговидными целями. Политика признает риск двойного использования, но говорит, что преимущества перевешивают риски.
"Администрация Байдена-Харриса задействует все рычаги, чтобы максимально использовать возможности искусственного интеллекта и одновременно минимизировать риски", - сказала министр торговли США Джина Раймондо.
"Сегодняшний доклад содержит дорожную карту для ответственного подхода к инновациям в области ИИ и американского лидерства, в котором говорится об открытости и содержатся рекомендации о том, как правительство США может подготовиться и адаптироваться к потенциальным вызовам".
В отчете говорится, что правительство США должно активно отслеживать потенциальные возникающие риски, но при этом воздерживаться от ограничения доступности моделей с открытым весом.
Открытые грузы открывают двери
Любой желающий может загрузить последнюю версию Meta Модель Llama 3.1 405B и его веса. Хотя данные для обучения не были предоставлены, наличие весов дает пользователям гораздо больше возможностей, чем при использовании GPT-4o или Claude 3.5 Сонет например.
Доступ к весам позволяет исследователям и разработчикам лучше понять, что происходит под капотом, выявить и устранить погрешности, ошибки или неожиданное поведение модели.
Это также значительно облегчает пользователям тонкую настройку моделей для конкретных случаев использования, как хороших, так и плохих.
В отчете отмечается, что "доступность открытых весов значительно снижает барьер для тонкой настройки моделей как в полезных, так и во вредных целях. Недоброжелатели могут устранить защитные механизмы из открытых моделей с помощью тонкой настройки, а затем свободно распространить модель, что в конечном итоге ограничит ценность методов смягчения последствий".
Риски и преимущества открытых моделей ИИ, о которых говорится в отчете, включают в себя:
- Общественная безопасность
- Геополитические соображения
- Общественные проблемы
- Конкуренция, инновации и исследования
В отчете откровенно признаются риски в каждой из этих областей, но говорится, что преимущества перевешивают их, если риски удается контролировать.
С закрытой моделью, такой как GPT-4o, мы все должны верить, что OpenAI хорошо справляется со своей работой по выравниванию и не скрывает потенциальные риски. При открытой модели любой исследователь может выявить уязвимости в модели с точки зрения безопасности или провести аудит третьей стороной, чтобы убедиться, что модель соответствует нормативным требованиям.
В докладе говорится, что "доступность модельных весов может позволить странам, вызывающим обеспокоенность, создать более надежные передовые экосистемы ИИ... и подорвать цели Контроль за чипами в США."
Однако в графе "плюс" указано, что предоставление модельных весов "может укрепить сотрудничество с союзниками и углубить новые отношения с развивающимися партнерами".
Правительство США явно поддерживает идею открытых моделей ИИ, даже если оно вводит в действие федеральные и государственные правила для снижения рисков, связанных с этими технологиями. Если Трамп-Вэнс Если на следующих выборах победит команда, мы, скорее всего, увидим дальнейшую поддержку открытого ИИ, но с еще меньшим регулированием.
Модели с открытым весом, возможно, и хороши для инноваций, но если возникающие риски застанут регуляторов врасплох, джинна ИИ уже не удастся загнать обратно в бутылку.