Компания OpenAI оказалась в центре сенатского расследования после обвинений в поспешном тестировании безопасности.
Пять сенаторов во главе с Брайаном Шатцем (D-Hawaii) потребовали от компании предоставить подробную информацию о технике безопасности и соглашениях с сотрудниками.
Расследование проводится после того, как Отчет Washington Post Предполагается, что OpenAI могла пойти на компромисс с протоколами безопасности, торопясь выпустить GPT-4 Omni, свою последнюю модель ИИ.
Тем временем разоблачители, включая высокопоставленных исследователей из OpenAI расформированная "команда суперсогласования". выразили обеспокоенность по поводу ограничительных соглашений о неразглашении (NDA), заключаемых с сотрудниками.
Письмо сенаторов в OpenAI
В письме с резкими формулировками, адресованном генеральному директору OpenAI Сэму Альтману, пять сенаторов потребовали предоставить подробную информацию о методах обеспечения безопасности и обращения с сотрудниками компании.
Сайт письмо Вызывает озабоченность приверженность OpenAI ответственному подходу к разработке ИИ и ее внутренняя политика.
"Учитывая положение OpenAI как ведущей компании в области ИИ, важно, чтобы общественность могла доверять безопасности и надежности ее систем", - пишут сенаторы.
Далее они ставят под сомнение "целостность структуры управления компании и проверки безопасности, ее практику найма, ее верность своим публичным обещаниям и миссии, а также ее политику кибербезопасности".
Сенаторы, возглавляемые Брайаном Шатцем (D-Hawaii), установили для OpenAI крайний срок - 13 августа, чтобы ответить на ряд острых вопросов. В частности, будет ли компания выполнять свои обязательства по выделению 20% вычислительных ресурсов на исследования безопасности ИИ и позволит ли она независимым экспертам тестировать свои системы перед выпуском.
Что касается ограничительных соглашений с сотрудниками, то в письме OpenAI просит подтвердить, что "не будет применять постоянные соглашения о неразглашении информации к нынешним и бывшим сотрудникам", и обязаться "исключить из трудовых соглашений любые другие положения, которые могут быть использованы для наказания сотрудников, публично высказывающих опасения по поводу практики компании".
Позднее OpenAI обратилась к X, чтобы заверить общественность в своей приверженности безопасности.
"Убедиться в том, что искусственный интеллект может принести пользу всем, можно, создав полезный и безопасный ИИ. Мы хотим поделиться некоторыми новыми сведениями о том, как мы уделяем приоритетное внимание безопасности в нашей работе", - говорится в недавнем сообщении компании.
OpenAI особо отметила свою программу Preparedness Framework, разработанную для оценки и защиты от рисков, связанных со все более мощными моделями ИИ.
Мы не будем выпускать новую модель, если она пересекает порог "среднего" риска, пока не убедимся, что можем сделать это безопасно", - заверили в компании.
Отвечая на обвинения в заключении ограничительных соглашений с сотрудниками, OpenAI заявила: "Наша политика в отношении информаторов защищает права сотрудников на раскрытие информации под защитой. Мы также считаем, что активное обсуждение этой технологии очень важно, и внесли изменения в процесс увольнения, чтобы убрать условия о неразглашении".
Компания также упомянула о недавних шагах по усилению мер безопасности.
В мае совет директоров OpenAI создал новый комитет по безопасности и охране, в который вошли в отставке US Генерал армии Пол Накасоневедущий эксперт в области кибербезопасности.
OpenAI сохраняет свою позицию в отношении преимуществ ИИ. "Мы считаем, что передовые модели ИИ могут принести большую пользу обществу", - заявила компания, признав при этом необходимость постоянной бдительности и мер безопасности.
Несмотря на некоторый прогресс, шансы на принятие всеобъемлющего закона об искусственном интеллекте в этом году невелики, поскольку внимание переключается на выборы 2024 года.
В отсутствие новых законов, принятых Конгрессом, Белый дом в основном полагался на добровольные обязательства от компаний, занимающихся разработкой ИИ, чтобы обеспечить создание безопасных и надежных систем ИИ.