В среду лидер большинства в Сенате Чак Шумер представил свое долгожданное законодательное предложение по управлению искусственным интеллектом. Он предупредил, что "Конгресс должен присоединиться к революции ИИ", чтобы использовать эту технологию и управлять ею.
Шумер, демократ из Нью-Йорка, обозначил свой план В конце года начнется серия "Познавательных форумов по ИИ". В этих форумах примут участие лидеры в области ИИ, исследователи, общественные деятели, специалисты по национальной безопасности и другие эксперты.
Результаты этих встреч, по его словам, послужат основой для политических рекомендаций Конгрессу.
Выступая в Центре стратегических и международных исследований, двухпартийной некоммерческой организации, занимающейся вопросами внешней политики и национальной безопасности, Шумер заявил: "Некоторые эксперты предсказывают, что всего через несколько лет мир может стать совершенно неузнаваемым по сравнению с тем, в котором мы живем сегодня. Вот что такое ИИ: он меняет мир".
Признавая недавние изменения, вызванные искусственным интеллектом, Шумер предупредил: "У нас нет другого выбора, кроме как признать, что изменения, вызванные искусственным интеллектом, грядут, а во многих случаях уже наступили. Мы игнорируем их на свой страх и риск. Многие хотят игнорировать ИИ, потому что он такой сложный. Но когда дело доходит до ИИ, мы не можем быть страусами, засунувшими голову в песок".
Баланс рисков и выгод
Шумер также отметил положительный потенциал искусственного интеллекта, от борьба с болезнями и голода до повышения производительности труда. С другой стороны, он выразил обеспокоенность по поводу потенциальных опасностей, которые может таить в себе эта система, включая трудовые потрясения, дезинформацию и мошенничество.
Он предупредил о возможных угрозах честности выборов, включая фальшивые искаженные заявления и другие формы клеветы, призванные нанести ущерб их кампаниям, или чат-боты, распространяющие дезинформацию, чтобы повлиять на избирателей. "ИИ может быть использован для желтухи и даже полной дискредитации наших выборов уже в следующем году", - сказал Шумер. "Если мы не предпримем шаги, чтобы гарантировать, что ИИ сохранит основы нашей страны, то мы рискуем самим выживанием нашей демократии".
По словам Шумера, результатом 6-месячных обсуждений с более чем 100 заинтересованными сторонами в области ИИ стал законодательный проект под названием "Инновации SAFE для ИИ". Он состоит из 5 ключевых элементов:
- Безопасность: Укрепление национальной безопасности путем устранения угроз ИИ, а также обеспечение экономической безопасности для работников, особенно с низким уровнем дохода.
- Подотчетность: Содействовать развитию "ответственных" систем для борьбы с дезинформацией и предвзятостью и защищать авторов, решая вопросы авторского права и сохраняя права на интеллектуальную собственность.
- Основы: Обеспечить соответствие систем ИИ демократическим ценностям, гарантировать безопасность выборов, подчеркнуть пользу ИИ для общества, сведя к минимуму потенциальный вред, и не допустить, чтобы Коммунистическая партия Китая устанавливала глобальные нормы ИИ.
- Объяснимость: Компании должны документировать, как системы искусственного интеллекта достигают определенного результата, в простых и понятных выражениях. Это позволит пользователям лучше понять причины, лежащие в основе конкретного ответа системы, и его происхождение.
- Инновации: Одобрить достижения США в области технологий ИИ и продвигать США в качестве мирового лидера в области ИИ.
"Инновации должны быть нашей северной звездой", - продолжил Шумер. "Но если люди будут думать, что инновации в области ИИ не будут безопасными, если не будет соответствующих ограждений - и общественность будет считать, что инновации не будут безопасными, - это приведет к подавлению или даже полному прекращению инноваций".
Этот призыв к действию совпадает с настоятельными предупреждениями экспертов в области ИИ, включая заявление от Центра безопасности искусственного интеллекта (CAIS), подписанный более чем 350 руководителями технологических компаний, учеными, общественными деятелями и другими известными экспертами.
Во время визита в район залива во вторник президент Джо Байден встретился с 8 экспертами по искусственному интеллектуСреди них Джим Стейер, генеральный директор Common Sense Media; Сал Хан, основатель и генеральный директор Академии Хана; Тристан Харрис, исполнительный директор и соучредитель Центра гуманных технологий и бывший специалист по этике дизайна в Google.
Байден признал быстрые темпы технологических изменений, вызванных ИИ, заявив: "В ближайшие 10 лет мы увидим больше технологических изменений, чем за последние 50 лет, а может, и больше".
Призыв к двухпартийному сотрудничеству в области искусственного интеллекта
Шумер тесно сотрудничает с Белым домом по вопросам стратегии ИИ, проводя двухпартийные брифинги, на которых сенаторы знакомятся с ИИ.
Подчеркивая необходимость инновационного подхода к разработке политики в области ИИ, Шумер отметил, что в условиях стремительно развивающегося технологического ландшафта обычных законодательных процессов может оказаться недостаточно. На предложенных им "Форумах по изучению ИИ" будут анализироваться вопросы авторского права и интеллектуальной собственности, национальной безопасности, занятости и подготовки к худшим сценариям, а также другие темы.
Шумер заявил: "ИИ развивается так быстро, но при этом отличается такой сложностью, что требуется новый подход. Слушаний будет недостаточно. Нам нужен комплексный подход, потому что именно этого требует сложность и скорость развития ИИ".
Выступление Шумера показывает, что наступает эра искусственного интеллекта, и настало время для двухпартийного сотрудничества, чтобы ориентироваться на неизведанных территориях этой технологии.
"Как и во многих других великих начинаниях в истории нашей страны, мы должны двигаться вперед, опираясь на двухпартийность и сотрудничество", - заключил он. "Мы должны отбросить идеологические заморочки и политические корыстные интересы. Только так наши усилия увенчаются успехом".
Регулирование ИИ в США: хронология
По сравнению с ЕС и Китаем, нормативно-правовая база США в области ИИ остается несколько неопределенной.
Отраслевые нормативные акты
Хотя в США отсутствует широкое регулирование ИИ, в отдельных отраслях наблюдается определенная активность, которая дает представление о будущем управлении.
В частности, Национальный институт стандартов и технологий (NIST), Федеральная торговая комиссия (FTC) и Управление по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA) выпустили руководство по ИИ.
NIST об искусственном интеллекте
26 января 2023 года NIST выпустил Структура управления рисками искусственного интеллекта 1.0 (RMF).
Данная концепция является добровольным руководством для технологических компаний, проектирующих, разрабатывающих, внедряющих или использующих системы ИИ. Она направлена на управление рисками, связанными с ИИ, с упором на надежное и ответственное развитие систем ИИ.
RMF выделяет 7 характеристик надежных систем искусственного интеллекта:
- Безопасный: Мониторинг, контроль или иное вмешательство в работу системы ИИ для предотвращения вреда или угрозы жизни, здоровью или имуществу людей.
- Безопасность и устойчивость: Защита от атак и управление потенциальными крупными инцидентами.
- Объяснимо и интерпретируемо: Результаты объяснимы и не являются "черным ящиком".
- Конфиденциальность: Защита автономии человека путем сохранения анонимности, конфиденциальности и контроля.
- Справедливая, с управляемой предвзятостью: Способствует равноправию и равенству и смягчает различные предубеждения.
- Подотчетность и прозрачность: Предоставляет информацию о жизненном цикле системы ИИ и поддерживает методы управления для снижения потенциального вреда.
- Достоверно и надежно: Обеспечивает функционирование системы искусственного интеллекта в соответствии с ее назначением путем постоянного тестирования и мониторинга.
FTC об искусственном интеллекте
FTC сигнализирует об усилении контроля за предприятиями, использующими искусственный интеллект. Она выпустила ряд предупреждений для компаний, чтобы они избегали нечестной или вводящей в заблуждение практики.
Официальные лица заявили, что существующие законы по-прежнему применимы к различным видам деятельности, связанным с ИИ. Например, Лина Хан, председатель ФТК, говорит, что правоохранительные органы должны быть осведомлены как существующие законы применяются к дискриминации и предрассудкам, связанным с ИИ.
FDA об искусственном интеллекте
FDA объявило о планах по регулированию клинических инструментов и устройств на основе искусственного интеллекта для принятия решений в сфере здравоохранения.
Это была одна из первых практических нормативных публикаций, ориентированных на ИИ, первоначальная публикация в 2019 году. В планах Управления по контролю за продуктами и лекарствами были расширен в 2023 году.
Заглядывая в будущее
14 июня 2023 года, было предложено двухпартийное законодательство возложить на компании социальных сетей ответственность за вредный контент, созданный искусственным интеллектом.
Законопроект, представленный сенаторами Джошем Хоули, республиканцем, и Ричардом Блюменталем, демократом, может открыть путь к судебным искам против компаний за вред, причиненный технологиями, управляемыми искусственным интеллектом, например, глубокими подделками.
Мошенники уже используют глубокие подделки для мошенничество и дезинформацияПо прогнозам эксперта по безопасности, это может стоить Налогоплательщики США получают миллиарды в год.
Предложение о внесении поправок в раздел 230, закон, который в настоящее время обеспечивает иммунитет онлайн-платформ от ответственности за пользовательский контент, появилось после двух дел, рассмотренных Верховным судом в прошлом месяце, которые подтвердили объем защиты раздела 230.
Раздел 230 имеет решающее значение для потенциальных дел о клевете, связанных с разработчиками искусственного интеллекта, такими как ChatGPT, поскольку в настоящее время он рассматривает судебные дела о выходе искусственного интеллекта как неразрешимую. В настоящее время раздел 230 Закона о пристойности коммуникаций от 1996 года гарантирует, что "интерактивные компьютерные сервисы" не несут ответственности в качестве "издателя или оратора" информации, предоставленной пользователями.
Блюменталь назвал законопроект "первым шагом" на пути к внедрению мер защиты от искусственного интеллекта.
Двухпартийная поддержка законопроекта свидетельствует о растущем аппетите к регулированию ИИ, что подтверждается заявлениями Шумера.
Республиканцы и демократы сходятся во мнении о необходимости управления искусственным интеллектом, но мнения по поводу практических действий расходятся.
Колеса находятся в движении для всеобъемлющего регулирования ИИ в США, которое может появиться в то же время, что и закон ЕС об ИИ, который должен вступить в силу в 2024 году.