Совет OpenAI формирует комитет по безопасности и охране

Май 29, 2024

  • Совет директоров OpenAI сформировал комитет по безопасности и охране для разработки процессов и мер предосторожности
  • Комитет будет консультировать совет по важнейшим решениям в области охраны и безопасности
  • OpenAI заявила, что начала обучение своей модели следующего рубежа с "новым уровнем возможностей"

Совет директоров OpenAI объявил о создании Комитета по безопасности и охране, которому поручено давать рекомендации по критическим решениям в области безопасности и охраны для всех проектов OpenAI.

Комитет возглавляют директора Брет Тейлор (председатель), Адам Д'Анджело, Николь Селигман и генеральный директор OpenAI Сэм Альтман.

В состав комитета также войдут Александр Мадри (руководитель отдела готовности), Лилиан Венг (руководитель отдела систем безопасности), Джон Шульман (руководитель отдела науки выравнивания), Мэтт Найт (руководитель отдела безопасности) и Якуб Пачоцки (главный научный сотрудник).

Подход OpenAI к безопасности ИИ подвергался как внешней, так и внутренней критике. Прошлогоднее увольнение Альтмана было поддержано тогдашним членом совета директоров Ильей Суцкевером и другими, якобы по соображениям безопасности.

На прошлой неделе Суцкевер и Ян Лейке из команды OpenAI, занимающейся "супервыравниванием". покинул компанию. Лейке особо отметил вопросы безопасности как причину своего ухода, сказав, что компания позволила безопасности "отойти на второй план перед блестящими продуктами".

Вчера Лейк объявил, что присоединяется к Anthropic для работы над надзором и исследованиями в области выравнивания.

Теперь Альтман не только вернулся на пост генерального директора, но и вошел в состав комитета, ответственного за выявление проблем безопасности. Бывший член совета директоров Хелен Тонер рассказала о причинах увольнения Альтмана, что заставляет задуматься о том, насколько прозрачно он будет реагировать на проблемы безопасности, которые обнаруживает комитет.

Судя по всему, руководство OpenAI узнало о выходе ChatGPT через Twitter.

В течение следующих 90 дней Комитет по безопасности и охране будет оценивать и совершенствовать процессы и средства защиты OpenAI.

Рекомендации будут вынесены на утверждение совета директоров OpenAI, и компания обязалась опубликовать принятые рекомендации по безопасности.

Это требование дополнительных ограждений появилось после того, как OpenAI заявила, что начала обучение своей следующей пограничной модели, которая, по ее словам, "выведет нас на новый уровень возможностей на нашем пути к AGI".

Ожидаемая дата выхода новой модели не сообщается, но, скорее всего, обучение займет несколько недель, если не месяцев.

В обновленной информации о подходе к безопасности, опубликованной после саммита ИИ в Сеуле, OpenAI заявила: "Мы не будем выпускать новую модель, если она пересекает порог риска "Средний" в нашей системе готовности, пока не проведем достаточные мероприятия по безопасности, чтобы вернуть оценку после устранения последствий к "Среднему" уровню".

В компании заявили, что к работе над "красной командой" было привлечено более 70 внешних экспертов. GPT-4o до его выхода.

До представления комитетом своих выводов совету директоров осталось 90 дней, обучение началось совсем недавно, и, судя по всему, нам придется долго ждать, прежде чем мы наконец получим GPT-5.

Или они имеют в виду, что только начали тренироваться в GPT-6?

 

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения