Разбор знакового исполнительного приказа Белого дома об искусственном интеллекте

30 октября 2023 года

Байден ИИ заказ

30 октября 2023 года президент Джо Байден объявил о принятии комплексного исполнительного приказа, устанавливающего строгие правила и рекомендации для ИИ. 

Ожидается, что этот приказ откроет новую эру прозрачности и стандартизации для компаний, работающих в сфере искусственного интеллекта, и подчеркнет необходимость четкой маркировки контента и водяных знаков.  

"Чтобы реализовать обещания ИИ и избежать рисков, нам нужно управлять этой технологией, и без этого не обойтись", - сказал Байден на церемонии подписания в Белом доме. 

На мероприятии Байден также говорил о глубоких подделках ИИ, объявив, чтобы вызвать юмор у аудитории: "Я наблюдал за одним из своих... Я сказал, что, черт возьми, я такого сказал?"

Сайт заказать В нем делается акцент на повышении прозрачности деятельности разработчиков ИИ и устанавливается ряд новых стандартов, в частности, для маркировки контента, созданного ИИ. 

Белый дом стремится повысить "безопасность и защищенность ИИ" с помощью этого приказа. Он включает в себя неожиданное требование к разработчикам делиться с правительством США результатами тестирования безопасности новых моделей ИИ, если технология может потенциально угрожать национальной безопасности.

Речь идет о Законе об оборонном производстве, который обычно применяется в чрезвычайных ситуациях.

Для тех, кто не знаком с американским законотворчеством, исполнительные приказы не являются законодательством - они не создают новые законы и не изменяют существующие. Вместо этого они инструктируют Конгресс относительно приоритетов политики.

Порядок, опубликовано здесьВ нем содержится множество сроков, определяющих различные действия, которые должны быть предприняты для введения в действие законодательства об искусственном интеллекте. 

Исполнительные приказы должны быть основаны на конституционных или законодательных полномочиях и не могут использоваться для обхода Конгресса или создания законов в одностороннем порядке.

В результате многие подчеркивают, что указу не хватает механизмов исполнения. Он не имеет того веса, который имеет законодательство Конгресса по ИИ.

"Конгресс глубоко поляризован и даже дисфункционален настолько, что в ближайшее время вряд ли сможет принять какое-либо значимое законодательство по ИИ", - отмечает Ану Брэдфорд, профессор права из Колумбийского университета.

Распоряжение поступило за несколько дней до того, как в Великобритании начнется Знаменательный саммит по безопасности искусственного интеллектаВ Блетчли-парке соберутся политики, исследователи, руководители технологических компаний и представители гражданского общества. В мероприятии примет участие вице-президент Камала Харрис. Примечательно, что на саммите будет представлен и Китай. 

"Мы намерены, чтобы действия, которые мы предпринимаем внутри страны, послужили примером для международных действий", - сказала Харрис на мероприятии в Белом доме. 

Это заявление обращает внимание на критические замечания о том, что приказ может потенциально подорвать открытое международное сотрудничество в преддверии Саммита по безопасности ИИ.

США были медлительны в регулировании ИИ, и характер исполнительных распоряжений означает, что они остаются таковыми. Возможно, было бы дерзко предлагать другим странам следовать по этому пути.

Харрис продолжил, что США будут "применять существующие международные правила и нормы с целью продвижения глобального порядка и стабильности, и, при необходимости, создавать поддержку для дополнительных правил и норм, которые отвечают этому моменту".

Что говорит Белый дом

Приказ вводит строгие стандарты для ИИ, защищая частную жизнь американцев, содействуя справедливости и гражданским правам, защищая потребителей и работников, стимулируя инновации и конкуренцию, а также укрепляя американское лидерство в области ИИ. 

Он дополняет добровольные обязательства от 15 ведущих компаний, чтобы способствовать безопасному и надежному развитию ИИ.

Одним из наиболее примечательных элементов приказа является то, что президент заявил, что разработчики "мощных" систем искусственного интеллекта должны будут делиться с правительством США результатами испытаний на безопасность и важнейшей информацией, чтобы убедиться, что эти системы безопасны и заслуживают доверия до публичного выпуска.

Национальный институт стандартов и технологий (NIST) возглавит "красную команду" по тестированию и анализу безопасности моделей ИИ.

Red team - это процесс проверки и стресс-тестирования функциональности и безопасности моделей ИИ. 

Что касается конфиденциальности, то призыв президента к принятию двухпартийного закона о конфиденциальности данных отражает понимание остроты ситуации.

Однако, как уже отмечалось, эффективность этих мер в конечном итоге будет зависеть от быстрых и решительных действий Конгресса, который исторически медленно принимает законы по вопросам, связанным с технологиями.

Кроме того, исполнительный указ занимает твердую позицию по продвижению равенства и борьбе с алгоритмической дискриминацией, предписывая обеспечить справедливость в сфере жилья, уголовного правосудия и федеральных программ льгот. 

И хотя это позитивные шаги, успех этих инициатив будет зависеть от строгого исполнения и постоянного надзора. 

Приказ В ней рассматриваются восемь ключевых областей. 

1. Новые стандарты безопасности и защиты ИИ

  • Разработчики мощных систем искусственного интеллекта должны делиться с правительством США результатами испытаний на безопасность и важнейшей информацией.
  • Разработка стандартов, инструментов и тестов для обеспечения безопасности и надежности систем ИИ под руководством NIST.
  • Защита от потенциала ИИ в инженерии опасных биологических материалов путем создания надежных стандартов для скрининга биологических синтезов.
  • Разработка протоколов для защиты американцев от мошенничества и обмана с помощью ИИ, включая стандарты для обнаружения контента, созданного ИИ, и проверки подлинности официальных сообщений.
  • Запуск программы передовой кибербезопасности, направленной на использование искусственного интеллекта для защиты программного обеспечения и сетей.

2. Защита частной жизни американцев

  • Выступая за федеральную поддержку разработки и использования методов сохранения конфиденциальности в ИИ.
  • Усиление исследований в области технологий сохранения конфиденциальности.
  • Усиление руководящих принципов федеральных агентств по обеспечению конфиденциальности при сборе и использовании данных, особенно персонально идентифицируемой информации.

3. Продвижение равенства и гражданских прав

  • Предоставление рекомендаций по уменьшению потенциальной возможности ИИ усугубить дискриминацию в сфере жилья, правосудия и занятости.
  • Содействие справедливости в системе уголовного правосудия путем разработки передового опыта применения ИИ.

4. Защита потребителей, пациентов и студентов

  • Поощрение ответственного использования ИИ в здравоохранении для разработки доступных, спасающих жизнь лекарств и обеспечения безопасности в медицинской практике с применением ИИ.
  • Содействие трансформационной роли ИИ в образовании, поддержка педагогов в развертывании средств обучения с использованием ИИ.

5. Поддержка работников

  • Разработка принципов и лучших практик, позволяющих сбалансировать пользу и вред ИИ на рабочем месте.
  • Проведение комплексных исследований влияния ИИ на рынок труда и усиление федеральной поддержки работников, столкнувшихся с перебоями в работе из-за ИИ.

6. Содействие инновациям и конкуренции

  • Катализатор исследований в области ИИ в масштабах страны и обеспечение конкурентоспособности экосистемы ИИ.
  • Упорядочение иммиграционных процессов для высококвалифицированных специалистов в важнейших отраслях ИИ.

7. Продвижение американского лидерства за рубежом

  • Укрепление международного сотрудничества и рамок в области ИИ.
  • Содействие безопасной и ответственной разработке и внедрению ИИ во всем мире.

8. Обеспечение ответственного и эффективного использования ИИ правительством

  • Обеспечение четкого руководства для федеральных агентств по использованию, закупкам и внедрению ИИ.
  • Повышение эффективности привлечения талантливых специалистов в области ИИ в правительстве и организация обучения ИИ для федеральных служащих.

Администрация Байдена-Харриса пытается найти баланс между сохранением и развитием ведущей в мире индустрии ИИ в США и сдерживанием очевидных рисков. 

Глубокие подделки и дезинформация находятся в центре внимания большинства людей, поскольку теперь у нас есть весомые доказательства того, что они могут влиять на голоса избирателей. 

Учитывая, что в следующем году в США пройдут всеобщие выборы, неудивительно, что приказ усиливает давление на водяные знаки и выделение контента, созданного искусственным интеллектом, чтобы пользователи могли легко отличить настоящее от подделки. 

С технической точки зрения, однако, существуют нет надежных решений для достижения этой цели на практике. 

Реакция промышленности

Реакция отрасли - естественно - неоднозначна. Многие хвалят быстрый прогресс в подписании приказа, в то время как другие подчеркивают, что законодательство и информация о правоприменительных мерах отсутствуют. 

И снова приказ указывает на то, что Белый дом хочет, чтобы Конгресс принял меры в отношении политики ИИ.

Единственным исключением здесь является Закон об оборонном производстве, на который ссылаются, чтобы заставить компании, занимающиеся разработкой ИИ, уведомлять правительство, когда они разрабатывают модели, взаимодействующие с национальной безопасностью.

Официальная формулировка - модель ИИ, представляющая "серьезный риск для национальной безопасности, национальной экономической безопасности или здоровья и безопасности населения страны".

Некоторые подчеркнули, что, по сравнению с Законом ЕС об искусственном интеллекте, в нем нет руководства по прозрачности данных об обучении, из-за чего многие разработчики искусственного интеллекта сталкиваются с судебными исками.


Аднан Масудглавный архитектор ИИ в UST, приветствовал эту инициативу, заявив: "Приказ подчеркивает столь необходимый сдвиг в глобальном внимании к регулированию ИИ, особенно после бума генеративного ИИ, свидетелями которого мы все стали в этом году". 

Авива Литанвице-президент Gartner Research, отметила, что, хотя правила начинаются с сильного, есть области, в которых они не соответствуют требованиям. Она поставила под сомнение определение "самых мощных" систем ИИ, применение к моделям ИИ с открытым исходным кодом, а также соблюдение стандартов аутентификации контента на платформах социальных сетей. 

Брэдли ТаскГенеральный директор Tusk Ventures считает, что разработчики ИИ вряд ли будут делиться с правительством собственными данными, заявляя: "Без реального механизма принуждения, которого указ, похоже, не предусматривает, концепция прекрасна, но ее соблюдение может быть весьма ограниченным".

Рэнди ЛариарЯ беспокоюсь, что многие модели с открытым исходным кодом, созданные на основе крупных фундаментальных моделей, могут быть столь же рискованными, не имея бремени красной команды - но это уже начало".

Эшли ЛеонардГенеральный директор компании Syxsense добавил, что будет очень интересно посмотреть, как будет выполняться это распоряжение. "Даже самым передовым компаниям требуются реальные ресурсы - бюджет, время и персонал, - чтобы постоянно отслеживать уязвимости и исправлять ошибки", - сказал Леонард.

Макс Тегмарк, профессор Массачусетского технологического института и президент Института будущего жизни, подчеркнул, что приказ должен быть снабжен планом по созданию и применению законодательства, заявив: "Политики, в том числе и в Конгрессе, должны заботиться о своих гражданах, принимая законы с зубами, которые будут бороться с угрозами и защищать прогресс".

Джейсен ГиллеспиРуководитель отдела аналитики и науки о данных RTB House положительно оценил указ, заявив, что регулирование ИИ - это та тема, где действительно возможен двухпартийный подход. 

Алехандро Майоркас Он поручает МНБ управлять ИИ в критической инфраструктуре и киберпространстве, содействовать принятию стандартов безопасности ИИ во всем мире, снижать риск использования ИИ для создания оружия массового поражения, бороться с кражей интеллектуальной собственности, связанной с ИИ, и обеспечить, чтобы наша иммиграционная система привлекала таланты для развития ответственного ИИ в Соединенных Штатах".

Кейси Эллисоснователь и технический директор Bugcrowd, сказал: "Директива обязывает разработчиков делиться с правительством США результатами тестов на безопасность, обеспечивая тщательную проверку систем ИИ перед публичным выпуском. В нем также подчеркивается важность ИИ для укрепления кибербезопасности, в частности для выявления мошенничества с использованием ИИ и повышения безопасности программного обеспечения и сетей. Приказ также поддерживает разработку стандартов, инструментов и тестов для обеспечения безопасности ИИ".

Необходимый шаг, но впереди - трудности

Исполнительный указ президента Байдена об искусственном интеллекте пытается быть всеобъемлющим, но Конгресс должен срочно принять законодательные меры. Это далеко не гарантировано. 

Хотя она устанавливает строгие стандарты и делает упор на прозрачность, подотчетность и предотвращение дискриминационной практики, подлинная эффективность этой инициативы будет зависеть от ее реализации и способности сбалансировать регуляторный надзор с поощрением инноваций. 

В преддверии саммита AI Safety Summit разговоры о рисках искусственного интеллекта и способах их снижения становятся все более активными.

Всеобъемлющий контроль над ИИ по-прежнему зависит от скорости и эффективности законотворчества и способности обеспечить его соблюдение.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения