Форум "Пограничная модель": будет ли она работать?

28 июля 2023 года

Google Microsoft

На этой неделе компании Microsoft, Google, OpenAI и Anthropic создали форум Frontier Model Forum, посвященный безопасности и подотчетности ИИ. 

Форум миссия В их число входит выявление лучших практик в области ИИ, поддержка государственного и частного секторов, сотрудничество с научными кругами и работа с политиками для обеспечения использования преимуществ ИИ и снижения рисков.

Это произошло вскоре после того, как 7 компаний, занимающихся разработкой искусственного интеллекта, присоединились к добровольному рамочному соглашению по ИИ. в Белом доме

Подобное сотрудничество между конкурентами было относительно обычным явлением в развивающейся индустрии ИИ, где конкуренты время от времени обменивались оборудованием и исследованиями, но это не значит, что реальная суть моделей не остается под замком. 

OpenAI, поддерживаемая Microsoft, была сотрудничество с конкурентами компанииSalesforce и Duckduckgo, показывая, что отношения в мире ИИ очень сложны.

Эксперты считают, что для успешного проведения форума требуется не просто обмен ресурсами для взаимной выгоды, а уровень сотрудничества, предполагающий раскрытие компаниями, занимающимися разработкой ИИ, своих внутренних принципов работы. 

Ведущий аналитик Gartner Авива Литан сомневается в том, что Форум достигнет своих целей, заявляя: "Шансы на то, что группа ярых конкурентов придет к общему полезному решению и действительно добьется его повсеместного внедрения - как в закрытых, так и в открытых моделях, которые они и другие контролируют по всему миру, - практически равны нулю".

В настоящее время Форум состоит из 4 членов-учредителей, но он открыт для других организаций, которые стремятся к разработке безопасных моделей и поддерживают более широкие отраслевые инициативы.

Литан выразил оптимизм по поводу компаний более эффективное регулирование коллективно, но подчеркнули необходимость создания международного регулирующего органа для обеспечения соблюдения глобальных стандартов ИИ. 

"Учитывая, что мы до сих пор не наблюдали глобального сотрудничества правительств в области изменения климата, где решения уже известны, ожидать такого сотрудничества в области ИИ, где решения еще не определены, еще сложнее. По крайней мере, эти компании могут стремиться к поиску решений, и это положительный момент", - говорит Литан.

Некоторые выражают оптимизм по поводу Форума пограничных моделей 

Доктор Кейт Девлин, старший преподаватель по искусственному интеллекту в Королевском колледже Лондона, поддержала позитивные настроения Форума пограничных моделей. 

"Судя по всему, в анонсе речь идет в основном о технических подходах. Однако при ответственном подходе к разработке ИИ необходимо учитывать более широкие социотехнические аспекты", - говорит доктор Девлин. отметил

Кроме того, Форум мог бы упростить сотрудничество в области регулирования, обеспечив применение правил в масштабах всей отрасли.

Например, Форум обещал поддержать процесс "Хиросима МА", заключенный на саммите G7 в Японии, и попросил о сотрудничестве с ОЭСР и GPAI. 

Поскольку обязательных правил, касающихся ИИ, практически нет, направление развития технологии остается на усмотрение разработчиков, которые хотя бы поверхностно пытаются ограничить риски в ближайшей перспективе.

Результаты совместных усилий, таких как Форум, очень ждут своего часа.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения