По мере широкого распространения технологий искусственного интеллекта они также становятся мишенью для киберпреступников. Агентства кибербезопасности Великобритании и США разработали новые рекомендации по повышению безопасности ИИ.
Заявленная цель рекомендации Это позволит компаниям, работающим в сфере ИИ, "создавать системы ИИ, которые функционируют так, как задумано, доступны, когда это необходимо, и работают, не раскрывая конфиденциальные данные посторонним лицам".
В общем, как сделать так, чтобы ваш ИИ нельзя было взломать или передать личные данные пользователей.
В руководстве перечислены принципы проектирования, которыми следует руководствоваться при создании продуктов ИИ на протяжении всего жизненного цикла разработки. В кратком изложении рассматриваются четыре ключевые области:
- Надежная конструкция
Оценивайте риски и моделируйте угрозы на этапе проектирования. - Безопасная разработка
Во время создания продукта надежно управляйте цепочкой поставок, документацией и цифровыми активами. Если вы воспользовались небезопасными способами, обязательно вернитесь и исправьте их. - Безопасное развертывание
Когда вы предоставляете пользователям доступ к вашему продукту, убедитесь, что они не могут получить доступ к конфиденциальным частям через API или другими способами. Внедряйте продукт только после тщательной проверки и тестирования. - Безопасная эксплуатация и обслуживание
Следите за состоянием своего продукта, осторожно выпускайте обновления и не держите в секрете, когда что-то идет не так.
Руководство содержит мало технических деталей, но это хорошее начало. Помимо Великобритании и США, руководство одобрили еще 16 стран.
Полный список подписантов таков:
Австралия, Германия, Израиль, Италия, Канада, Новая Зеландия, Нигерия, Норвегия, Польша, Республика Корея, Сингапур, Великобритания, Соединенные Штаты Америки, Франция, Чехия, Чили, Эстония, Япония.
Примечательно, что в списке отсутствуют Китай и Россия, вероятно, самые значительные источники кибератаки на западные страны.
Руководство не имеет обязательной силы, поэтому страны, одобрившие документ, на самом деле просто говорят: "Мы считаем, что это хорошие принципы разработки ИИ, которых следует придерживаться". Кроме того, несмотря на то, что Великобритания находится в авангарде этих усилий, она заявила, что в ближайшее время не будет принимать никаких новых законов о разработке ИИ.
Страны заинтересованы в том, чтобы сделать свои продукты ИИ как можно более безопасными, но удастся ли это сделать, пока неизвестно. Уязвимости нулевого дня в коммерческом программном обеспечении и системах кажутся повседневным явлением.
Благодаря регулярным отчетам о джейлбрейк Эксплойты систем искусственного интеллекта, разумно ли ожидать, что эти новые модели могут быть должным образом защищены от кибератак?
Воображаемые или прогнозируемые опасности ИИ - это потенциальная угроза будущего. Киберпреступники, которые, несомненно, уже сейчас изучают уязвимости ИИ, представляют собой более явную и настоящую опасность.