Правительство Великобритании хочет заглянуть в "черный ящик" искусственного интеллекта

29 сентября 2023 года

Саммит по безопасности искусственного интеллекта

Великобритания ведет переговоры с крупнейшими технологическими компаниями, включая OpenAI и DeepMind, стремясь получить более глубокие сведения о безопасности их технологий искусственного интеллекта. 

В то время как Великобритания готовится к глобальному Саммит по безопасности искусственного интеллектаПравительство выразило желание исследовать модели ИИ и заглянуть внутрь "черного ящика". Источники, посвященные в переговоры, сообщают, что представители активно добиваются разрешения на изучение внутренней работы передовых моделей ИИ.

Крупнейшие разработчики ИИ, как известно, осторожны в передаче такой информации - могут ли они непреднамеренно раскрыть конфиденциальные сведения о продукте или свидетельства авторских прав на обучающие данные?

Правительство Великобритании утверждает, что понимание того, как работают продвинутые модели ИИ, позволит властям упреждать опасность, но не объясняет, что именно они хотят узнать. Существует множество моделей ИИ с открытым исходным кодом, которые работают аналогично запатентованным ИИ, таким как ChatGPT. 

В США несколько ведущих разработчиков искусственного интеллекта подписались на добровольные рамки что предполагает независимое тестирование их моделей перед выпуском - то, что уже происходит в Китае.

Ранее в июне было подписано предварительное соглашение, согласно которому DeepMind, OpenAI и Anthropic согласились предоставить доступ к моделям правительству Великобритании для проведения исследований и оценки безопасности. Однако специфика этого доступа остается неопределенной. 

В своем заявлении Anthropic упомянула, что изучает возможность предоставления модели через API (интерфейс прикладного программирования), чтобы сбалансировать интересы обеих сторон.

Хотя API дает ограниченное представление о работе модели, правительство Великобритании добивается "более глубокого" понимания, по словам инсайдеров, информирующих Financial Times

Инсайдеры DeepMind согласились с тем, что доступ к моделям для исследования безопасности был бы полезен, но OpenAI не дала комментариев.

Источник, близкий к правительству, пояснил: "Эти компании не чинят препятствий, но в целом это непростой вопрос, и у них есть обоснованные опасения". "Нет такой кнопки, которую эти компании могли бы просто нажать, чтобы это произошло. Это открытые и нерешенные исследовательские вопросы". 

Саммит по безопасности ИИ, который пройдет в Великобритании в начале ноября, является прямым ответом на призывы к ужесточению регулирования ИИ. Ожидается, что в нем примут участие различные заинтересованные стороны, в том числе китайские чиновники. 

По словам инсайдеров, правительство Великобритании работает над окончательным вариантом соглашения, которое будет представлено на саммите.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения