Сенат проверяет безопасность и управление OpenAI после заявлений информаторов

23 июля 2024 года

  • Сенаторы США допросили OpenAI после обвинений в ограничениях на доносительство
  • Они также поставили под сомнение "целостность структуры управления компанией".
  • OpenAI должна официально ответить на список вопросов до 13 августа
Сенаторы OpenAI

Компания OpenAI оказалась в центре сенатского расследования после обвинений в поспешном тестировании безопасности.

Пять сенаторов во главе с Брайаном Шатцем (D-Hawaii) потребовали от компании предоставить подробную информацию о технике безопасности и соглашениях с сотрудниками.

Расследование проводится после того, как Отчет Washington Post Предполагается, что OpenAI могла пойти на компромисс с протоколами безопасности, торопясь выпустить GPT-4 Omni, свою последнюю модель ИИ.

Тем временем разоблачители, включая высокопоставленных исследователей из OpenAI расформированная "команда суперсогласования". выразили обеспокоенность по поводу ограничительных соглашений о неразглашении (NDA), заключаемых с сотрудниками.

Письмо сенаторов в OpenAI

В письме с резкими формулировками, адресованном генеральному директору OpenAI Сэму Альтману, пять сенаторов потребовали предоставить подробную информацию о методах обеспечения безопасности и обращения с сотрудниками компании.

Сайт письмо Вызывает озабоченность приверженность OpenAI ответственному подходу к разработке ИИ и ее внутренняя политика.

"Учитывая положение OpenAI как ведущей компании в области ИИ, важно, чтобы общественность могла доверять безопасности и надежности ее систем", - пишут сенаторы.

Далее они ставят под сомнение "целостность структуры управления компании и проверки безопасности, ее практику найма, ее верность своим публичным обещаниям и миссии, а также ее политику кибербезопасности".

Сенаторы, возглавляемые Брайаном Шатцем (D-Hawaii), установили для OpenAI крайний срок - 13 августа, чтобы ответить на ряд острых вопросов. В частности, будет ли компания выполнять свои обязательства по выделению 20% вычислительных ресурсов на исследования безопасности ИИ и позволит ли она независимым экспертам тестировать свои системы перед выпуском.

Что касается ограничительных соглашений с сотрудниками, то в письме OpenAI просит подтвердить, что "не будет применять постоянные соглашения о неразглашении информации к нынешним и бывшим сотрудникам", и обязаться "исключить из трудовых соглашений любые другие положения, которые могут быть использованы для наказания сотрудников, публично высказывающих опасения по поводу практики компании".

Позднее OpenAI обратилась к X, чтобы заверить общественность в своей приверженности безопасности.

"Убедиться в том, что искусственный интеллект может принести пользу всем, можно, создав полезный и безопасный ИИ. Мы хотим поделиться некоторыми новыми сведениями о том, как мы уделяем приоритетное внимание безопасности в нашей работе", - говорится в недавнем сообщении компании.

OpenAI особо отметила свою программу Preparedness Framework, разработанную для оценки и защиты от рисков, связанных со все более мощными моделями ИИ.

Мы не будем выпускать новую модель, если она пересекает порог "среднего" риска, пока не убедимся, что можем сделать это безопасно", - заверили в компании.

Отвечая на обвинения в заключении ограничительных соглашений с сотрудниками, OpenAI заявила: "Наша политика в отношении информаторов защищает права сотрудников на раскрытие информации под защитой. Мы также считаем, что активное обсуждение этой технологии очень важно, и внесли изменения в процесс увольнения, чтобы убрать условия о неразглашении".

Компания также упомянула о недавних шагах по усилению мер безопасности.

В мае совет директоров OpenAI создал новый комитет по безопасности и охране, в который вошли в отставке US Генерал армии Пол Накасоневедущий эксперт в области кибербезопасности.

OpenAI сохраняет свою позицию в отношении преимуществ ИИ. "Мы считаем, что передовые модели ИИ могут принести большую пользу обществу", - заявила компания, признав при этом необходимость постоянной бдительности и мер безопасности.

Несмотря на некоторый прогресс, шансы на принятие всеобъемлющего закона об искусственном интеллекте в этом году невелики, поскольку внимание переключается на выборы 2024 года.

В отсутствие новых законов, принятых Конгрессом, Белый дом в основном полагался на добровольные обязательства от компаний, занимающихся разработкой ИИ, чтобы обеспечить создание безопасных и надежных систем ИИ.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения