Anthropic, Google, Microsoft и OpenAI запустили Форум пограничных моделей в июле и теперь выделили $10 млн в Фонд безопасности ИИ для поддержки этой инициативы.
Форум пограничных моделей был создан с целью установления стандартов безопасности ИИ и оценки пограничных моделей для обеспечения ответственного развития. Похоже, что группа, наконец, приступила к делу, поскольку они объявил Крис Месерол в качестве первого исполнительного директора
Месерол обладает солидным опытом работы в области ИИ, недавно он занимал должность директора Инициативы по искусственному интеллекту и новым технологиям в Институте Брукингса.
В своем заявлении по поводу нового назначения Месеролс сказал: "Самые мощные модели искусственного интеллекта открывают огромные перспективы для общества, но чтобы реализовать их потенциал, нам нужно лучше понимать, как безопасно разрабатывать и оценивать их. Я рад принять этот вызов вместе с Frontier Model Forum".
Миссия форума заключается в следующем:
- Продвижение исследований в области безопасности ИИ для содействия ответственному развитию передовых моделей и минимизации потенциальных рисков
- Выявление передовых методов обеспечения безопасности для пограничных моделей
- Обмен знаниями с политиками, учеными, гражданским обществом и другими организациями для продвижения ответственного развития ИИ
- Поддержите усилия по использованию ИИ для решения важнейших проблем общества.
Для финансирования этой инициативы был создан Фонд безопасности ИИ (AI Safety Fund) с первоначальной суммой в $10 млн, поступившей от Anthropic, Google, Microsoft и OpenAI, а также от других филантропов.
Сегодня мы открываем новый фонд безопасности ИИ от Frontier Model Forum: обязательства @Google, @AnthropicAI, @Microsoft и @OpenAI более $10 миллионов на развитие независимых исследований, которые помогут протестировать и оценить наиболее способные модели ИИ. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25 октября 2023 года
Одной из основных целей Frontier Model Forum является "сотрудничество между секторами". Но их стремлению к сотрудничеству может помешать заметное отсутствие Меты.
Ранее в этом году Форум подписал добровольные обязательства по ИИ в Белом доме. Даже в отсутствие Меты за группой может оставаться достаточный вес, чтобы установить стандарты ИИ, которые могут получить более широкое распространение.
Как эти стандарты в конечном итоге войдут в законодательство, еще предстоит выяснить. В связи с разногласиями вокруг таких ключевых областей, как данные об обучении или потенциальные риски, связанные с моделями с открытым исходным кодомНо найти консенсус будет непросто.