Chefen för NSA och US Cyber Command, general Paul Nakasone, tillkännagav ett nytt AI-säkerhetscenter i ett tal till The National Press Club.
I takt med att AI blir allt mer integrerat i försvaret, den nationella säkerheten och den civila infrastrukturen ser NSA ett allt större behov av att hantera de risker som är förknippade med detta.
I en studie som nyligen genomfördes av NSA identifierades det som en betydande utmaning för den nationella säkerheten att skydda AI-modeller från stöld och sabotage.
Nakasone sa: "AI kommer att få allt större betydelse för den nationella säkerheten i diplomatiska, tekniska och ekonomiska frågor för vårt land och våra allierade och partner." De "diplomatiska" och "tekniska" aspekterna av den nationella säkerheten hamnar alltmer i fokus när världsmakterna tävlar på AI-scenen.
"Våra motståndare, som i årtionden har använt stöld och utnyttjande av vår immateriella egendom för att främja sina intressen, kommer att försöka utnyttja våra framsteg inom AI och korrumpera vår tillämpning av den", sade Nakasone utan att uttryckligen nämna Kina.
Det nya AI-säkerhetscentret kommer att falla under den operativa tillsynen av NSA: s Cybersecurity Collaboration Center. Nakasone förklarade att det nya centret skulle fokusera på att "främja ett säkert antagande av nya AI-funktioner i hela det nationella säkerhetsföretaget och försvarsindustrins bas."
AI: Både orsaken till och lösningen på problemet
De uppenbara riskerna med AI som vapen är några av de tydliga och uppenbara områden som NSA fokuserar på.
NSA-chefen sade att hans avdelning ännu inte hade upptäckt några försök från Kina eller Ryssland att påverka det kommande valet i USA, men baserat på tidigare erfarenheter kvarstod risken.
A färsk rapport uppmärksammat en ökning av cybersäkerhetsattacker från kinesiska cyberaktörer, kända som BlackTech. I takt med att AI förbättras kommer även sofistikeringen och omfattningen av dessa attacker att öka.
Att använda AI för att bearbeta stora mängder data och fatta beslut för att identifiera och minska dessa risker är ett attraktivt perspektiv. Men när AI införlivas i verksamheten hos nationella säkerhetsorganisationer som NSA öppnar det också upp dem för nya risker.
Om vi inte förstår exakt hur en AI-modell kommer fram till en rekommendation, kan vi då lita på den? Om modellen är benägen att vara partisk eller hallucinera, kan den underliggande datauppsättningen då korrumperas av dåliga aktörer?
Den CIA meddelade att de utvecklade sin egen AI-version av ChatGPT och DARPA forskar hur man använder AI för att fatta beslut på slagfältet. Föreställ dig vad som skulle kunna hända om dessa AI-verktyg kunde påverkas att ge dåliga råd.
NSA:s säkerhetscenter syftar till att skydda dessa institutioner från att få sin teknik stulen eller saboterad av USA:s motståndare. Direktören betonade också att AI inte skulle automatisera nationella säkerhetsbeslut.
"AI hjälper oss, men det är människor som fattar våra beslut", säger Nakasone. Men ju bättre AI blir, desto mer kommer människorna att förlita sig på den för att fatta sina beslut.
Och ju mer den nationella säkerheten förlitar sig på AI, desto mer sårbart blir samhället för ett AI-problem eller sabotage.