Directeur van de NSA en het Amerikaanse Cyber Command, generaal Paul Nakasone, kondigde een nieuw AI-beveiligingscentrum aan in een toespraak tot The National Press Club.
Nu AI steeds meer wordt geïntegreerd in defensie, nationale veiligheid en civiele infrastructuur, ziet de NSA steeds meer de noodzaak om de bijbehorende risico's aan te pakken.
Een recent onderzoek uitgevoerd door de NSA identificeerde het beveiligen van AI-modellen tegen diefstal en sabotage als een belangrijke uitdaging voor de nationale veiligheid.
Nakasone zei: "AI zal steeds meer gevolgen hebben voor de nationale veiligheid op diplomatiek, technologisch en economisch gebied voor ons land en onze bondgenoten en partners." De "diplomatieke" en "technologische" aspecten van nationale veiligheid komen steeds meer onder de aandacht nu wereldmachten elkaar beconcurreren op het gebied van AI.
"Onze tegenstanders, die al tientallen jaren diefstal en exploitatie van ons intellectueel eigendom gebruiken om hun belangen te bevorderen, zullen proberen onze vooruitgang op het gebied van AI te coöpteren en onze toepassing ervan te corrumperen", zei Nakasone zonder China expliciet te noemen.
Het nieuwe AI-beveiligingscentrum valt onder het operationele toezicht van het NSA Cybersecurity Collaboration Center. Nakasone legde uit dat het nieuwe centrum zich zou richten op "het bevorderen van de veilige toepassing van nieuwe AI-mogelijkheden binnen de nationale veiligheidsonderneming en de defensie-industrie".
AI: zowel de oorzaak als de oplossing van het probleem
De openlijke risico's van AI als wapen zijn enkele van de duidelijke en voor de hand liggende gebieden waar de NSA zich op richt.
De NSA-directeur zei dat zijn afdeling nog geen pogingen van China of Rusland had ontdekt om de komende Amerikaanse verkiezingen te beïnvloeden, maar op basis van ervaringen uit het verleden bleef het risico bestaan.
A recent rapport benadrukte een toename in cyberaanvallen van Chinese cyberactoren die bekend staan als BlackTech. Naarmate AI verbetert, zal ook de geavanceerdheid en omvang van deze aanvallen toenemen.
Het gebruik van AI om grote hoeveelheden gegevens te verwerken en beslissingen te nemen om deze risico's te identificeren en te beperken is een aantrekkelijk vooruitzicht. Maar nu AI wordt geïntegreerd in de activiteiten van nationale veiligheidsorganisaties zoals de NSA, worden ze ook blootgesteld aan nieuwe risico's.
Als we niet precies begrijpen hoe een AI-model tot een aanbeveling komt, kunnen we het dan vertrouwen? Als het model vatbaar is voor vertekening of hallucinatie, kan de onderliggende dataset dan gecorrumpeerd zijn door slechte actoren?
De CIA kondigde aan een eigen AI-versie van ChatGPT te ontwikkelen en DARPA doet onderzoek naar hoe je AI kunt gebruiken om beslissingen op het slagveld te nemen. Stel je voor wat er zou kunnen gebeuren als deze AI-tools beïnvloed zouden kunnen worden om slecht advies te geven.
Het beveiligingscentrum van de NSA heeft als doel deze instellingen te beschermen tegen diefstal of sabotage van hun technologie door tegenstanders van de VS. De directeur benadrukte ook dat AI geen beslissingen over de nationale veiligheid zal automatiseren.
"AI helpt ons, maar onze beslissingen worden genomen door mensen," zei Nakasone. Maar hoe beter AI wordt, hoe meer die mensen erop zullen vertrouwen om hun beslissingen te nemen.
En hoe meer de nationale veiligheid afhankelijk is van AI, hoe kwetsbaarder de samenleving wordt voor een AI-storing of sabotage.