30 октября 2023 года президент Джо Байден объявил о принятии комплексного исполнительного приказа, устанавливающего строгие правила и рекомендации для ИИ.
Ожидается, что этот приказ откроет новую эру прозрачности и стандартизации для компаний, работающих в сфере искусственного интеллекта, и подчеркнет необходимость четкой маркировки контента и водяных знаков.
"Чтобы реализовать обещания ИИ и избежать рисков, нам нужно управлять этой технологией, и без этого не обойтись", - сказал Байден на церемонии подписания в Белом доме.
На мероприятии Байден также говорил о глубоких подделках ИИ, объявив, чтобы вызвать юмор у аудитории: "Я наблюдал за одним из своих... Я сказал, что, черт возьми, я такого сказал?"
Сайт заказать В нем делается акцент на повышении прозрачности деятельности разработчиков ИИ и устанавливается ряд новых стандартов, в частности, для маркировки контента, созданного ИИ.
Белый дом стремится повысить "безопасность и защищенность ИИ" с помощью этого приказа. Он включает в себя неожиданное требование к разработчикам делиться с правительством США результатами тестирования безопасности новых моделей ИИ, если технология может потенциально угрожать национальной безопасности.
Речь идет о Законе об оборонном производстве, который обычно применяется в чрезвычайных ситуациях.
Для тех, кто не знаком с американским законотворчеством, исполнительные приказы не являются законодательством - они не создают новые законы и не изменяют существующие. Вместо этого они инструктируют Конгресс относительно приоритетов политики.
Порядок, опубликовано здесьВ нем содержится множество сроков, определяющих различные действия, которые должны быть предприняты для введения в действие законодательства об искусственном интеллекте.
Исполнительные приказы должны быть основаны на конституционных или законодательных полномочиях и не могут использоваться для обхода Конгресса или создания законов в одностороннем порядке.
В результате многие подчеркивают, что указу не хватает механизмов исполнения. Он не имеет того веса, который имеет законодательство Конгресса по ИИ.
"Конгресс глубоко поляризован и даже дисфункционален настолько, что в ближайшее время вряд ли сможет принять какое-либо значимое законодательство по ИИ", - отмечает Ану Брэдфорд, профессор права из Колумбийского университета.
Распоряжение поступило за несколько дней до того, как в Великобритании начнется Знаменательный саммит по безопасности искусственного интеллектаВ Блетчли-парке соберутся политики, исследователи, руководители технологических компаний и представители гражданского общества. В мероприятии примет участие вице-президент Камала Харрис. Примечательно, что на саммите будет представлен и Китай.
"Мы намерены, чтобы действия, которые мы предпринимаем внутри страны, послужили примером для международных действий", - сказала Харрис на мероприятии в Белом доме.
Это заявление обращает внимание на критические замечания о том, что приказ может потенциально подорвать открытое международное сотрудничество в преддверии Саммита по безопасности ИИ.
США были медлительны в регулировании ИИ, и характер исполнительных распоряжений означает, что они остаются таковыми. Возможно, было бы дерзко предлагать другим странам следовать по этому пути.
Харрис продолжил, что США будут "применять существующие международные правила и нормы с целью продвижения глобального порядка и стабильности, и, при необходимости, создавать поддержку для дополнительных правил и норм, которые отвечают этому моменту".
Что говорит Белый дом
Приказ вводит строгие стандарты для ИИ, защищая частную жизнь американцев, содействуя справедливости и гражданским правам, защищая потребителей и работников, стимулируя инновации и конкуренцию, а также укрепляя американское лидерство в области ИИ.
Он дополняет добровольные обязательства от 15 ведущих компаний, чтобы способствовать безопасному и надежному развитию ИИ.
Одним из наиболее примечательных элементов приказа является то, что президент заявил, что разработчики "мощных" систем искусственного интеллекта должны будут делиться с правительством США результатами испытаний на безопасность и важнейшей информацией, чтобы убедиться, что эти системы безопасны и заслуживают доверия до публичного выпуска.
Национальный институт стандартов и технологий (NIST) возглавит "красную команду" по тестированию и анализу безопасности моделей ИИ.
Red team - это процесс проверки и стресс-тестирования функциональности и безопасности моделей ИИ.
Что касается конфиденциальности, то призыв президента к принятию двухпартийного закона о конфиденциальности данных отражает понимание остроты ситуации.
Однако, как уже отмечалось, эффективность этих мер в конечном итоге будет зависеть от быстрых и решительных действий Конгресса, который исторически медленно принимает законы по вопросам, связанным с технологиями.
Кроме того, исполнительный указ занимает твердую позицию по продвижению равенства и борьбе с алгоритмической дискриминацией, предписывая обеспечить справедливость в сфере жилья, уголовного правосудия и федеральных программ льгот.
И хотя это позитивные шаги, успех этих инициатив будет зависеть от строгого исполнения и постоянного надзора.
Приказ В ней рассматриваются восемь ключевых областей.
Вот как знаковый указ президента Байдена об искусственном интеллекте обеспечит Америке лидерство в этот период технологических изменений и обеспечит безопасность американцев. pic.twitter.com/SvBPxiZk3M
- Белый дом (@WhiteHouse) 30 октября 2023 года
1. Новые стандарты безопасности и защиты ИИ
- Разработчики мощных систем искусственного интеллекта должны делиться с правительством США результатами испытаний на безопасность и важнейшей информацией.
- Разработка стандартов, инструментов и тестов для обеспечения безопасности и надежности систем ИИ под руководством NIST.
- Защита от потенциала ИИ в инженерии опасных биологических материалов путем создания надежных стандартов для скрининга биологических синтезов.
- Разработка протоколов для защиты американцев от мошенничества и обмана с помощью ИИ, включая стандарты для обнаружения контента, созданного ИИ, и проверки подлинности официальных сообщений.
- Запуск программы передовой кибербезопасности, направленной на использование искусственного интеллекта для защиты программного обеспечения и сетей.
2. Защита частной жизни американцев
- Выступая за федеральную поддержку разработки и использования методов сохранения конфиденциальности в ИИ.
- Усиление исследований в области технологий сохранения конфиденциальности.
- Усиление руководящих принципов федеральных агентств по обеспечению конфиденциальности при сборе и использовании данных, особенно персонально идентифицируемой информации.
3. Продвижение равенства и гражданских прав
- Предоставление рекомендаций по уменьшению потенциальной возможности ИИ усугубить дискриминацию в сфере жилья, правосудия и занятости.
- Содействие справедливости в системе уголовного правосудия путем разработки передового опыта применения ИИ.
4. Защита потребителей, пациентов и студентов
- Поощрение ответственного использования ИИ в здравоохранении для разработки доступных, спасающих жизнь лекарств и обеспечения безопасности в медицинской практике с применением ИИ.
- Содействие трансформационной роли ИИ в образовании, поддержка педагогов в развертывании средств обучения с использованием ИИ.
5. Поддержка работников
- Разработка принципов и лучших практик, позволяющих сбалансировать пользу и вред ИИ на рабочем месте.
- Проведение комплексных исследований влияния ИИ на рынок труда и усиление федеральной поддержки работников, столкнувшихся с перебоями в работе из-за ИИ.
6. Содействие инновациям и конкуренции
- Катализатор исследований в области ИИ в масштабах страны и обеспечение конкурентоспособности экосистемы ИИ.
- Упорядочение иммиграционных процессов для высококвалифицированных специалистов в важнейших отраслях ИИ.
7. Продвижение американского лидерства за рубежом
- Укрепление международного сотрудничества и рамок в области ИИ.
- Содействие безопасной и ответственной разработке и внедрению ИИ во всем мире.
8. Обеспечение ответственного и эффективного использования ИИ правительством
- Обеспечение четкого руководства для федеральных агентств по использованию, закупкам и внедрению ИИ.
- Повышение эффективности привлечения талантливых специалистов в области ИИ в правительстве и организация обучения ИИ для федеральных служащих.
Администрация Байдена-Харриса пытается найти баланс между сохранением и развитием ведущей в мире индустрии ИИ в США и сдерживанием очевидных рисков.
Глубокие подделки и дезинформация находятся в центре внимания большинства людей, поскольку теперь у нас есть весомые доказательства того, что они могут влиять на голоса избирателей.
Учитывая, что в следующем году в США пройдут всеобщие выборы, неудивительно, что приказ усиливает давление на водяные знаки и выделение контента, созданного искусственным интеллектом, чтобы пользователи могли легко отличить настоящее от подделки.
С технической точки зрения, однако, существуют нет надежных решений для достижения этой цели на практике.
Реакция промышленности
Реакция отрасли - естественно - неоднозначна. Многие хвалят быстрый прогресс в подписании приказа, в то время как другие подчеркивают, что законодательство и информация о правоприменительных мерах отсутствуют.
И снова приказ указывает на то, что Белый дом хочет, чтобы Конгресс принял меры в отношении политики ИИ.
Единственным исключением здесь является Закон об оборонном производстве, на который ссылаются, чтобы заставить компании, занимающиеся разработкой ИИ, уведомлять правительство, когда они разрабатывают модели, взаимодействующие с национальной безопасностью.
Официальная формулировка - модель ИИ, представляющая "серьезный риск для национальной безопасности, национальной экономической безопасности или здоровья и безопасности населения страны".
Исполнительный указ об искусственном интеллекте немного нелепый, и его довольно трудно выполнить.
Вот вопросы -
1. Любая модель фундамента, представляющая серьезный риск для национальной безопасности - Как определить, является ли что-то "серьезным риском для национальной безопасности!"?
Если речь идет о...
- Бинду Редди (@bindureddy) 30 октября 2023 года
Некоторые подчеркнули, что, по сравнению с Законом ЕС об искусственном интеллекте, в нем нет руководства по прозрачности данных об обучении, из-за чего многие разработчики искусственного интеллекта сталкиваются с судебными исками.
Отсутствует в новом исполнительном приказе:
Компании, занимающиеся разработкой искусственного интеллекта, должны раскрывать свой набор обучающих материалов.
Чтобы разработать безопасный ИИ, нам нужно знать, на чем обучается модель.
Почему организации, занимающиеся безопасностью ИИ, не выступают за это?https://t.co/yjr21bNIK4
- Дамек Дэвис (@damekdavis) 30 октября 2023 года
Аднан Масудглавный архитектор ИИ в UST, приветствовал эту инициативу, заявив: "Приказ подчеркивает столь необходимый сдвиг в глобальном внимании к регулированию ИИ, особенно после бума генеративного ИИ, свидетелями которого мы все стали в этом году".
Авива Литанвице-президент Gartner Research, отметила, что, хотя правила начинаются с сильного, есть области, в которых они не соответствуют требованиям. Она поставила под сомнение определение "самых мощных" систем ИИ, применение к моделям ИИ с открытым исходным кодом, а также соблюдение стандартов аутентификации контента на платформах социальных сетей.
Брэдли ТаскГенеральный директор Tusk Ventures считает, что разработчики ИИ вряд ли будут делиться с правительством собственными данными, заявляя: "Без реального механизма принуждения, которого указ, похоже, не предусматривает, концепция прекрасна, но ее соблюдение может быть весьма ограниченным".
Рэнди ЛариарЯ беспокоюсь, что многие модели с открытым исходным кодом, созданные на основе крупных фундаментальных моделей, могут быть столь же рискованными, не имея бремени красной команды - но это уже начало".
Эшли ЛеонардГенеральный директор компании Syxsense добавил, что будет очень интересно посмотреть, как будет выполняться это распоряжение. "Даже самым передовым компаниям требуются реальные ресурсы - бюджет, время и персонал, - чтобы постоянно отслеживать уязвимости и исправлять ошибки", - сказал Леонард.
Макс Тегмарк, профессор Массачусетского технологического института и президент Института будущего жизни, подчеркнул, что приказ должен быть снабжен планом по созданию и применению законодательства, заявив: "Политики, в том числе и в Конгрессе, должны заботиться о своих гражданах, принимая законы с зубами, которые будут бороться с угрозами и защищать прогресс".
Джейсен ГиллеспиРуководитель отдела аналитики и науки о данных RTB House положительно оценил указ, заявив, что регулирование ИИ - это та тема, где действительно возможен двухпартийный подход.
Алехандро Майоркас Он поручает МНБ управлять ИИ в критической инфраструктуре и киберпространстве, содействовать принятию стандартов безопасности ИИ во всем мире, снижать риск использования ИИ для создания оружия массового поражения, бороться с кражей интеллектуальной собственности, связанной с ИИ, и обеспечить, чтобы наша иммиграционная система привлекала таланты для развития ответственного ИИ в Соединенных Штатах".
Кейси Эллисоснователь и технический директор Bugcrowd, сказал: "Директива обязывает разработчиков делиться с правительством США результатами тестов на безопасность, обеспечивая тщательную проверку систем ИИ перед публичным выпуском. В нем также подчеркивается важность ИИ для укрепления кибербезопасности, в частности для выявления мошенничества с использованием ИИ и повышения безопасности программного обеспечения и сетей. Приказ также поддерживает разработку стандартов, инструментов и тестов для обеспечения безопасности ИИ".
Необходимый шаг, но впереди - трудности
Исполнительный указ президента Байдена об искусственном интеллекте пытается быть всеобъемлющим, но Конгресс должен срочно принять законодательные меры. Это далеко не гарантировано.
Хотя она устанавливает строгие стандарты и делает упор на прозрачность, подотчетность и предотвращение дискриминационной практики, подлинная эффективность этой инициативы будет зависеть от ее реализации и способности сбалансировать регуляторный надзор с поощрением инноваций.
В преддверии саммита AI Safety Summit разговоры о рисках искусственного интеллекта и способах их снижения становятся все более активными.
Всеобъемлющий контроль над ИИ по-прежнему зависит от скорости и эффективности законотворчества и способности обеспечить его соблюдение.