Директор АНБ и Киберкомандования США генерал Пол Накасоне, выступая в Национальном пресс-клубе, объявил о создании нового центра безопасности ИИ.
По мере того как искусственный интеллект все больше интегрируется в объекты обороны, национальной безопасности и гражданской инфраструктуры, АНБ все чаще сталкивается с необходимостью устранять связанные с этим риски.
В недавнем исследовании, проведенном АНБ, защита моделей ИИ от кражи и саботажа названа серьезной проблемой для национальной безопасности.
Накасонэ заявил: "ИИ будет иметь все большее значение для национальной безопасности в дипломатическом, технологическом и экономическом плане для нашей страны, наших союзников и партнеров". Дипломатические и технологические аспекты национальной безопасности становятся все более актуальными по мере того, как мировые державы соревнуются на арене ИИ.
"Наши противники, которые десятилетиями использовали кражу и эксплуатацию нашей интеллектуальной собственности для продвижения своих интересов, будут пытаться кооптировать наши достижения в области искусственного интеллекта и коррумпировать наше его применение", - сказал Накасонэ, прямо не упомянув Китай.
Новый центр безопасности ИИ будет находиться под оперативным надзором Центра сотрудничества в области кибербезопасности АНБ. Накасоне пояснил, что новый центр будет заниматься "содействием безопасному внедрению новых возможностей ИИ на предприятиях национальной безопасности и в оборонной промышленности".
AI: как причина, так и решение проблемы
Открытые риски использования ИИ в качестве оружия - вот некоторые из явных и очевидных областей, на которых сосредоточено внимание АНБ.
Директор АНБ заявил, что его ведомство пока не обнаружило попыток Китая или России повлиять на предстоящие выборы в США, но, исходя из прошлого опыта, риск остается.
A недавний доклад отметила рост числа атак на систему кибербезопасности со стороны китайских киберактеров, известных как BlackTech. По мере совершенствования ИИ изощренность и масштабы этих атак будут расти.
Использование искусственного интеллекта для обработки больших объемов данных и принятия решений по выявлению и снижению этих рисков - привлекательная перспектива. Но по мере внедрения ИИ в деятельность организаций, занимающихся вопросами национальной безопасности, таких как АНБ, они также становятся подвержены новым рискам.
Если мы не понимаем, как именно модель искусственного интеллекта выдает рекомендации, можно ли ей доверять? Если модель склонна к предвзятости или галлюцинациям, может ли базовый набор данных быть испорчен недобросовестными участниками?
Сайт ЦРУ объявила о разработке собственной версии ChatGPT с искусственным интеллектом, а DARPA проводит исследования. как использовать искусственный интеллект для принятия решений на поле боя. Представьте себе, что может произойти, если на эти инструменты искусственного интеллекта можно будет повлиять, чтобы они давали плохие советы.
Центр безопасности АНБ призван защитить эти учреждения от кражи или саботажа их технологий противниками США. Директор также подчеркнул, что ИИ не будет автоматизировать решения в области национальной безопасности.
"ИИ помогает нам, но решения принимают люди, - говорит Накасоне. Но чем лучше будет становиться ИИ, тем больше люди будут полагаться на него в принятии решений".
И чем больше национальная безопасность зависит от ИИ, тем более уязвимым становится общество в случае сбоя или саботажа со стороны ИИ.