Предлагаемые законопроекты Калифорнии могут оказаться губительными для развития ИИ

31 июля 2024 года

  • Два предложенных законопроекта об искусственном интеллекте будут предъявлять обременительные требования к создателям моделей искусственного интеллекта
  • SB 1047 сделает разработчиков ИИ юридически ответственными, если другие используют их модели опасным образом
  • AB 3211 обязывает наносить водяные знаки и маркировку на синтетический контент и запрещает модели, которые этого не делают.

Калифорния рассматривает несколько законопроектов по регулированию ИИ, причем SB 1047 и AB 3211 окажут огромное влияние на разработчиков ИИ, если станут законом в следующем месяце.

Споры о рисках ИИ и способах их снижения продолжаются, и в отсутствие федеральных законов США Калифорния разработала законопроект, который может стать прецедентом для других штатов.

SB 1047 и AB 3211 прошли через Ассамблею штата Калифорния и могут стать законом в следующем месяце, когда их проголосует Сенат.

Сторонники законопроектов утверждают, что они обеспечивают давно назревшую защиту от рисков, связанных с небезопасными моделями ИИ и синтетическим контентом, создаваемым ИИ. Критики утверждают, что требования, предусмотренные законопроектами, погубят развитие ИИ в штате, поскольку они неисполнимы.

Вот краткий обзор этих двух законопроектов и причин, по которым калифорнийские разработчики ИИ могут задуматься о регистрации в других штатах.

SB 1047

Сайт SB 1047 "Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта" будет применяться к создателям моделей, обучение которых обошлось в $100 миллионов или более.

Эти разработчики будут обязаны проводить дополнительные проверки безопасности и нести ответственность, если их модели будут использованы для нанесения "критического вреда".

Законопроект определяет "критический ущерб" как "создание или применение химического, биологического, радиологического или ядерного оружия таким образом, что это приводит к массовым жертвам... или по меньшей мере пятистам миллионам долларов ($500 000 000) ущерба в результате кибератак на критическую инфраструктуру".

Это может показаться хорошей идеей, чтобы убедиться, что создатели продвинутых моделей ИИ проявляют достаточную осторожность, но так ли это на самом деле?

Производитель автомобиля должен нести ответственность, если его транспортное средство небезопасно, но должен ли он нести ответственность, если человек намеренно въехал в кого-то на его автомобиле?

Главный научный сотрудник Meta по искусственному интеллекту Янн ЛеКун так не считает. ЛеКун критикует законопроект и говорит: "Регуляторы должны регулировать приложения, а не технологии... Если разработчики технологий будут нести ответственность за неудачное использование продуктов, созданных на основе их технологий, это просто остановит развитие технологий".

Законопроект также предусматривает ответственность создателей моделей, если кто-то создаст производную от их модели и причинит вред. Это требование станет смертью для моделей с открытым весом, которые, по иронии судьбы, Министерство торговли одобрило.

SB 1047 был принят Сенатом Калифорнии в мае с результатом 32-1 голосов и станет законом, если пройдет в Сенате в августе.

AB 3211

Сайт Калифорнийский закон о провенансе, аутентичности и стандартах водяных знаков (AB 3211) направлен на обеспечение прозрачности и подотчетности при создании и распространении синтетического контента.

Если что-то было создано искусственным интеллектом, то, согласно законопроекту, оно должно быть промаркировано или иметь цифровой водяной знак, чтобы это было понятно.

Водяной знак должен быть "максимально нестираемым... разработанным таким образом, чтобы его было как можно труднее удалить". В промышленности принят стандарт Стандарт подтверждения подлинности C2PAНо удалить метаданные из содержимого очень просто.

Законопроект требует, чтобы каждая система разговорного ИИ "получала положительное согласие пользователя перед началом разговора".

Поэтому каждый раз, когда вы используете ChatGPT или Siri, он должен будет начинать разговор со слов "Я - искусственный интеллект. Вы понимаете и согласны с этим?". Каждый раз.

Еще одно требование заключается в том, что создатели генеративных моделей ИИ должны вести реестр сгенерированного ИИ контента, созданного их моделями, если он может быть истолкован как созданный человеком.

Это, вероятно, было бы невозможно для создателей открытые модели. Если кто-то загрузит и запустит модель локально, как вы будете следить за тем, что он генерирует?

Законопроект распространяется на все модели, распространяемые в Калифорнии, независимо от их размера и того, кто их создал. Если законопроект пройдет через Сенат в следующем месяце, модели ИИ, не соответствующие требованиям, не будут допускаться к распространению или даже размещению в Калифорнии. Сожалеем об этом HuggingFace и GitHub.

Если вы окажетесь не на той стороне закона, он предусматривает штрафы в размере "$1 миллиона или 5% от глобального годового дохода нарушителя, в зависимости от того, что больше". Для таких компаний, как Meta или Google, это означает миллиарды долларов.

Регулирование искусственного интеллекта начинает смещать политическую поддержку Кремниевой долины в сторону союзников Трампа "Сделаем Америку первой в области искусственного интеллекта" подход. Если SB 1047 и AB 3211 будут подписаны в следующем месяце, это может вызвать массовое бегство разработчиков ИИ в менее регулируемые штаты.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения