Разоблачители критикуют противодействие OpenAI законопроекту о безопасности ИИ

26 августа 2024 года

  • Противоречивый законопроект SB 1047 о безопасности искусственного интеллекта в Калифорнии становится все ближе к подписанию закона
  • OpenAI написала письмо автору законопроекта, сенатору Скотту Винеру, с просьбой выступить против законопроекта
  • Два бывших исследователя OpenAI написали письмо, в котором критикуют оппозицию OpenAI и подход к безопасности ИИ

Два бывших исследователя OpenAI написали письмо в ответ на противодействие OpenAI противоречивому калифорнийскому законопроекту о безопасности ИИ SB 1047.

Сайт предлагаемый законопроект В настоящее время законопроект проходит через законодательные органы штата, и если к концу месяца он пройдет полный состав Сената, то отправится на подпись к губернатору Гэвину Ньюсому.

Законопроект предусматривает дополнительные проверки безопасности для моделей искусственного интеллекта, обучение которых стоит более $100 млн, а также "выключатель" на случай, если модель поведет себя неправильно. Бывшие сотрудники OpenAI и разоблачители Уильям Сондерс и Даниэль Кокотайло заявили, что они "разочарованы, но не удивлены" противодействием OpenAI законопроекту.

OpenAIписьмо автору законопроекта, сенатору Скотту Винеру, объяснили, что, хотя они поддерживают намерения, лежащие в основе законопроекта, федеральные законы, регулирующие развитие ИИ, являются лучшим вариантом.

OpenAI утверждает, что последствия для национальной безопасности, такие как потенциальный химический, биологический, радиологический и ядерный ущерб, "лучше всего регулируются федеральным правительством и агентствами".

В письме говорится, что если "штаты попытаются конкурировать с федеральным правительством за скудные таланты и ресурсы, это приведет к размыванию и без того ограниченного опыта различных ведомств, что приведет к менее эффективной и более фрагментированной политике защиты от рисков национальной безопасности и критического ущерба".

В письме также цитируются опасения представителя Зои Лофгрен, что если законопроект будет подписан, то "существует реальный риск того, что компании решат зарегистрироваться в других юрисдикциях или просто не будут выпускать модели в Калифорнии".

Ответ OpenAI на разоблачение

Бывшие сотрудники OpenAI не верят в доводы OpenAI. Они объяснили: "Мы присоединились к OpenAI, потому что хотели обеспечить безопасность невероятно мощных систем искусственного интеллекта, которые разрабатывает компания. Но мы уволились из OpenAI, потому что потеряли доверие к тому, что компания будет безопасно, честно и ответственно разрабатывать свои системы ИИ".

Авторы письмо также были за Письмо "Право на предупреждение", выпущенный в начале этого года.

В письме, объясняющем поддержку SB 1047, говорится: "Разработка передовых моделей ИИ без надлежащих мер предосторожности представляет собой предсказуемый риск нанесения катастрофического вреда обществу".

В OpenAI наблюдается отток исследователей безопасности ИИ, но модели компании не привели ни к одному из сценариев конца света, о которых многие беспокоились. Разоблачители говорят: "Это только потому, что по-настоящему опасные системы еще не созданы, а не потому, что у компаний есть процессы безопасности, которые могут справиться с действительно опасными системами".

Они также не верят генеральному директору OpenAI Сэму Альтману, когда он говорит о своей приверженности безопасности ИИ. "Сэм Альтман, наш бывший начальник, неоднократно призывал к регулированию ИИ. Теперь, когда речь заходит о реальном регулировании, он выступает против него", - пояснили они.

OpenAI - не единственная компания, выступающая против законопроекта. Anthropic также была обеспокоена, но теперь, похоже, поддерживает его после внесения поправок.

Генеральный директор Anthropic Дарио Амодей в своем письме губернатору Калифорнии Гэвину Ньюсому от 21 августа заявил: "По нашей оценке, новый SB 1047 значительно улучшен, и мы считаем, что его преимущества, скорее всего, перевешивают затраты.

"Однако мы не уверены в этом, и некоторые аспекты законопроекта все еще кажутся нам сомнительными или двусмысленными... Наши первоначальные опасения по поводу того, что законопроект может препятствовать инновациям из-за быстро развивающейся природы этой области, значительно уменьшились в измененной версии".

Если закон SB 1047 будет подписан, это заставит такие компании, как OpenAI, сосредоточить больше ресурсов на безопасности ИИ, но также может привести к миграции технологических компаний из Кремниевой долины.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения