Лондон, Великобритания - На прошлой неделе на Лондонской технологической неделе премьер-министр Риши Сунак заявил, что OpenAI, Google DeepMind и Anthropic пообещали предоставить "ранний или приоритетный доступ" к своим моделям ИИ.
Этот шаг призван помочь исследованиям в области искусственного интеллекта, направленным на оценку и обеспечение безопасности. Это заявление последовало за План правительства Великобритании созвать всемирное совещание по безопасности ИИ.
Премьер-министр Сунак выразил свою приверженность исследованиям безопасности ИИ, заявив: "Мы собираемся проводить передовые исследования безопасности [ИИ] здесь, в Великобритании". Мы инвестируем в безопасность ИИ больше денег, чем любое другое правительство, включая 100 миллионов фунтов стерлингов для нашей экспертной целевой группы".
Далее он пояснил: "Мы сотрудничаем с передовыми лабораториями - Google DeepMind, OpenAI и Anthropic. И я рад сообщить, что они согласились предоставить ранний или приоритетный доступ к моделям в целях исследования и безопасности, чтобы помочь нам лучше оценить и понять потенциал и опасность этих систем".
Премьер-министр Сунак провел связь с конференциями COP по климату, чтобы продвинуть Великобританию в качестве мирового центра регулирования безопасности ИИ. "Как мы объединяемся на COP для решения проблемы изменения климата, так и Великобритания примет первый в истории саммит по глобальной безопасности ИИ в конце этого года", - сказал он о предстоящей встрече. "Я стремлюсь сделать Соединенное Королевство не только интеллектуальным, но и географическим центром регулирования безопасности ИИ во всем мире".
Нынешний акцент на безопасности ИИ отражает существенное изменение позиции правительства. В прошлом правительство Великобритании выступало за инновационную позицию и гибкие принципы управления ИИ, отвергая необходимость технического регулирования или контролирующих органов.
Однако в связи с растущим беспокойством по поводу возможных опасностей и контроля над искусственным интеллектом Даунинг-стрит быстро пересмотрела свой план.
Хотя обещание компаний, занимающихся разработкой искусственного интеллекта, предоставить расширенный доступ к своим моделям дает Великобритании шанс стать лидером в подходах к анализу и аудиту ИИ, существует опасность влияния промышленности на меры безопасности ИИ в стране.
Гиганты ИИ могут формировать будущие правила ИИ, касающиеся их собственных предприятий, влияя на дебаты вокруг исследований безопасности ИИ и определяя приоритетность вопросов.
Чтобы обеспечить получение надежных и строгих результатов, программы правительства Великобритании по безопасности ИИ должны включать независимых исследователей, организации гражданского общества и людей, наиболее подверженных риску ущерба от автоматизации.
Специалисты по этике подчеркивают необходимость устранения реальной несправедливости, которую порождают технологии ИИ, включая предрассудки, дискриминацию, вторжение в частную жизнь, нарушение интеллектуальной собственности и эксплуатацию окружающей среды.
По мере того как Великобритания будет продвигаться вперед по пути обеспечения безопасности ИИ, сочетание участия промышленности с независимым надзором будет иметь решающее значение для создания ответственной и всеохватывающей экосистемы ИИ, которая защитит от возможных опасностей, максимально используя преимущества искусственного интеллекта.