Два бывших исследователя OpenAI написали письмо в ответ на противодействие OpenAI противоречивому калифорнийскому законопроекту о безопасности ИИ SB 1047.
Сайт предлагаемый законопроект В настоящее время законопроект проходит через законодательные органы штата, и если к концу месяца он пройдет полный состав Сената, то отправится на подпись к губернатору Гэвину Ньюсому.
Законопроект предусматривает дополнительные проверки безопасности для моделей искусственного интеллекта, обучение которых стоит более $100 млн, а также "выключатель" на случай, если модель поведет себя неправильно. Бывшие сотрудники OpenAI и разоблачители Уильям Сондерс и Даниэль Кокотайло заявили, что они "разочарованы, но не удивлены" противодействием OpenAI законопроекту.
OpenAIписьмо автору законопроекта, сенатору Скотту Винеру, объяснили, что, хотя они поддерживают намерения, лежащие в основе законопроекта, федеральные законы, регулирующие развитие ИИ, являются лучшим вариантом.
OpenAI утверждает, что последствия для национальной безопасности, такие как потенциальный химический, биологический, радиологический и ядерный ущерб, "лучше всего регулируются федеральным правительством и агентствами".
В письме говорится, что если "штаты попытаются конкурировать с федеральным правительством за скудные таланты и ресурсы, это приведет к размыванию и без того ограниченного опыта различных ведомств, что приведет к менее эффективной и более фрагментированной политике защиты от рисков национальной безопасности и критического ущерба".
В письме также цитируются опасения представителя Зои Лофгрен, что если законопроект будет подписан, то "существует реальный риск того, что компании решат зарегистрироваться в других юрисдикциях или просто не будут выпускать модели в Калифорнии".
Ответ OpenAI на разоблачение
Бывшие сотрудники OpenAI не верят в доводы OpenAI. Они объяснили: "Мы присоединились к OpenAI, потому что хотели обеспечить безопасность невероятно мощных систем искусственного интеллекта, которые разрабатывает компания. Но мы уволились из OpenAI, потому что потеряли доверие к тому, что компания будет безопасно, честно и ответственно разрабатывать свои системы ИИ".
Авторы письмо также были за Письмо "Право на предупреждение", выпущенный в начале этого года.
В письме, объясняющем поддержку SB 1047, говорится: "Разработка передовых моделей ИИ без надлежащих мер предосторожности представляет собой предсказуемый риск нанесения катастрофического вреда обществу".
В OpenAI наблюдается отток исследователей безопасности ИИ, но модели компании не привели ни к одному из сценариев конца света, о которых многие беспокоились. Разоблачители говорят: "Это только потому, что по-настоящему опасные системы еще не созданы, а не потому, что у компаний есть процессы безопасности, которые могут справиться с действительно опасными системами".
Они также не верят генеральному директору OpenAI Сэму Альтману, когда он говорит о своей приверженности безопасности ИИ. "Сэм Альтман, наш бывший начальник, неоднократно призывал к регулированию ИИ. Теперь, когда речь заходит о реальном регулировании, он выступает против него", - пояснили они.
OpenAI - не единственная компания, выступающая против законопроекта. Anthropic также была обеспокоена, но теперь, похоже, поддерживает его после внесения поправок.
Генеральный директор Anthropic Дарио Амодей в своем письме губернатору Калифорнии Гэвину Ньюсому от 21 августа заявил: "По нашей оценке, новый SB 1047 значительно улучшен, и мы считаем, что его преимущества, скорее всего, перевешивают затраты.
"Однако мы не уверены в этом, и некоторые аспекты законопроекта все еще кажутся нам сомнительными или двусмысленными... Наши первоначальные опасения по поводу того, что законопроект может препятствовать инновациям из-за быстро развивающейся природы этой области, значительно уменьшились в измененной версии".
Если закон SB 1047 будет подписан, это заставит такие компании, как OpenAI, сосредоточить больше ресурсов на безопасности ИИ, но также может привести к миграции технологических компаний из Кремниевой долины.