Ведущие компании, занимающиеся разработкой искусственного интеллекта, согласились с новым набором добровольных обязательств по безопасности, о которых объявили правительства Великобритании и Южной Кореи перед двухдневным саммитом по искусственному интеллекту в Сеуле.
16 технологических компаний приняли участие в программе, в том числе Amazon, Google, Meta, Microsoft, OpenAI, xAI и Zhipu AI.
Это первая система, согласованная компаниями из Северной Америки, Европы, Ближнего Востока (The Technology Innovation Institute) и Азии, включая Китай (Zhipu AI).
В числе обязательств компании обязуются "не разрабатывать и не внедрять модель вообще", если серьезные риски не удается контролировать.
Компании также согласились опубликовать информацию о том, как они будут измерять и снижать риски, связанные с моделями ИИ.
Сайт новые обязательства Это произошло после того, как известные исследователи в области искусственного интеллекта, в том числе Йошуа Бенгио, Джеффри Хинтон, Эндрю Яо и Юваль Ной Харари, опубликовали работу бумага в науке под названием Управление экстремальными рисками ИИ в условиях стремительного прогресса.
В этом документе содержится несколько рекомендаций, которые помогли определить новую систему безопасности:
- Надзор и честность: Разработка методов обеспечения прозрачности систем ИИ и получения надежных результатов.
- Устойчивость: Обеспечение предсказуемого поведения систем ИИ в новых ситуациях.
- Интерпретируемость и прозрачность: Понимание процессов принятия решений ИИ.
- Инклюзивная разработка ИИ: Смягчение предубеждений и интеграция различных ценностей.
- Оценка на предмет опасных действий: Разработка строгих методов оценки возможностей ИИ и прогнозирования рисков до развертывания.
- Оценка соответствия ИИ: Обеспечение того, чтобы системы ИИ соответствовали намеченным целям и не преследовали вредных задач.
- Оценки рисков: Всесторонняя оценка социальных рисков, связанных с внедрением ИИ.
- Устойчивость: Создание средств защиты от угроз с использованием ИИ, таких как кибератаки и социальные манипуляции.
Анна Маканью, вице-президент по глобальным вопросам в OpenAIзаявили о новых рекомендациях: "Область безопасности ИИ быстро развивается, и мы особенно рады, что в обязательствах сделан акцент на совершенствовании подходов наряду с наукой. Мы по-прежнему готовы сотрудничать с другими исследовательскими лабораториями, компаниями и правительствами, чтобы обеспечить безопасность ИИ и принести пользу всему человечеству".
Майкл Селлитто, руководитель отдела по глобальным вопросам в Anthropic, прокомментировал это так: "Обязательства Frontier AI по безопасности подчеркивают важность безопасной и ответственной разработки моделей Frontier. Как организация, ориентированная на безопасность, мы сделали своим приоритетом внедрение строгих политик, проведение обширного анализа и сотрудничество с внешними экспертами, чтобы убедиться в безопасности наших моделей. Эти обязательства - важный шаг вперед в деле поощрения ответственной разработки и внедрения ИИ".
Другая добровольная структура
Это отражает "добровольные обязательства", принятые на Белый дом в июле прошлого года на Amazon, AnthropicGoogle, Inflection AI, Meta, Microsoft и OpenAI чтобы способствовать безопасному, надежному и прозрачному развитию технологий ИИ.
Согласно новым правилам, 16 компаний должны "обеспечить публичную прозрачность" своих мер по обеспечению безопасности, за исключением случаев, когда это может привести к увеличению рисков или разглашению конфиденциальной коммерческой информации, несоизмеримому с общественными выгодами.
Премьер-министр Великобритании Риши Сунак сказал: "Это первый в мире случай, когда столько ведущих компаний, работающих в сфере ИИ, из разных уголков земного шара соглашаются на одни и те же обязательства по безопасности ИИ".
Это первый случай в мире, поскольку компании за пределами Европы и Северной Америки, такие как китайская Zhipu.ai, присоединился к ней.
Однако добровольные обязательства по обеспечению безопасности ИИ уже давно вошли в моду.
Компании, занимающиеся разработкой искусственного интеллекта, почти не рискуют соглашаться с ними, поскольку нет никаких средств для обеспечения их соблюдения. Это также указывает на то, насколько тупым инструментом они являются, когда дело доходит до драки.
Дэн Хендрикс, советник по безопасности стартапа Элона Маска xAI, отметил, что добровольные обязательства помогут "заложить основу для конкретного внутреннего регулирования".
Справедливое замечание, но, по собственному признанию некоторых ведущих исследователей, нам еще только предстоит "заложить фундамент", когда в дверь постучатся экстремальные риски.
Не все согласны с тем. Насколько опасен искусственный интеллект на самом делеНо суть остается в том, что настроения, лежащие в основе этих рамок, пока не совпадают с действиями.
Страны создают сеть безопасности ИИ
Пока в Сеуле (Южная Корея) проходит этот небольшой саммит по безопасности ИИ, десять стран и Европейский союз (ЕС) договорились о создании международной сети поддерживаемых государством "Институтов безопасности ИИ".
The "Сеульское заявление о намерениях по международному сотрудничеству в области науки о безопасности ИИ"В соглашении участвуют такие страны, как Великобритания, США, Австралия, Канада, Франция, Германия, Италия, Япония, Южная Корея, Сингапур и ЕС.
Примечательно, что в соглашении не участвовал Китай. Однако китайское правительство приняло в нем участие, а китайская компания Zhipu.ai подписала вышеописанные рамки.
Китай ранее выражал готовность сотрудничать в области безопасности ИИ и был в "секретные" переговоры с US.
Это Малый промежуточный саммит прошел с меньшей помпой, чем первый, состоявшийся в ноябре прошлого года в британском Блетчли-парке.
Тем не менее, к ним присоединились несколько известных технологических деятелей, включая Элона Маска, бывшего генерального директора Google Эрика Шмидта и DeepMind Основатель компании сэр Демис Хассабис.
В ближайшие дни станет известно о новых обязательствах и обсуждениях.