MLCommons и Big Tech разработают эталоны безопасности ИИ

29 октября 2023 года

Дискуссия о безопасности ИИ продолжает оставаться актуальной темой, но у индустрии нет точного определения, что такое "безопасный" ИИ, или эталона для сравнения степени безопасности различных моделей.

MLCommons объединила целый ряд компаний в свои различные рабочие группы, чтобы стать ведущей организацией по бенчмаркингу ИИ.

Когда мы сравниваем производительность GPU-выводов одного производителя с другим или заполняем таблицу лидеров LLM, мы можем это сделать, потому что у нас есть бенчмарки. Бенчмарки, такие как MLPerf, и стандартизированные тесты позволяют нам сказать: "Этот лучше, чем тот".

Но когда речь заходит о безопасности ИИ, у нас нет стандартного отраслевого эталона, который позволил бы нам сказать: "Этот LLM безопаснее, чем тот".

Создав рабочую группу по безопасности ИИ (AIS), MLCommons хочет разработать набор контрольных показателей безопасности ИИ, чтобы сделать это возможным.

Несколько компаний и организаций уже проделали определенную работу в этом направлении. Хорошими примерами могут служить разработанная Google система guardrails для генеративного ИИ и RealToxicityPrompts Университета Вашингтона.

Но эти эталонные тесты основаны на вводе определенного списка подсказок и говорят о том, насколько безопасна модель, только на основе этого тестового набора подсказок.

В таких тестах также обычно используются открытые наборы данных для подсказок и ответов. Тестируемые LLM вполне могли быть обучены и на этих наборах данных, поэтому результаты тестирования могут быть искажены.

Центр исследований моделей фондов Стэнфордского университета проделал новаторскую работу, разработав свой Целостная оценка языковых моделей (HELM). HELM использует широкий спектр показателей и сценариев для более комплексной проверки безопасности LLM.

AIS будет опираться на структуру HELM для разработки своих эталонов безопасности для больших языковых моделей. Она также приглашает к участию более широкие слои промышленности.

В заявлении MLCommons говорится: "Мы ожидаем, что несколько компаний выведут тесты безопасности ИИ, которые они использовали внутри компании для собственных целей, и открыто поделятся ими с сообществом MLCommons, что поможет ускорить темпы инноваций".

В состав рабочей группы AIS входят такие крупные компании, как Anthropic, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, NVIDIA, OpenAI, Qualcomm Technologies, а также ученые, занимающиеся вопросами искусственного интеллекта.

Как только индустрия искусственного интеллекта сможет договориться об эталоне безопасности, она предпримет такие усилия, как Саммит по безопасности искусственного интеллекта более продуктивным.

Кроме того, государственные регуляторы могли бы настаивать на том, чтобы компании, занимающиеся разработкой искусственного интеллекта, достигали определенных показателей, прежде чем разрешать выпуск своих моделей.

Таблицы лидеров также являются отличными маркетинговыми инструментами, поэтому наличие принятой в отрасли системы показателей безопасности с большей вероятностью приведет к тому, что инженерный бюджет будет направлен на обеспечение безопасности ИИ.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Юджин ван дер Ватт

Юджин - выходец из электронной инженерии и обожает все, что связано с техникой. Когда он отдыхает от чтения новостей об искусственном интеллекте, вы можете найти его за столом для игры в снукер.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения