Direktør for NSA og US Cyber Command, general Paul Nakasone, kunngjorde et nytt AI-sikkerhetssenter i en tale til The National Press Club.
Etter hvert som kunstig intelligens blir mer integrert i forsvaret, nasjonal sikkerhet og sivil infrastruktur, ser NSA i økende grad behovet for å håndtere de tilknyttede risikoene.
En fersk studie utført av NSA identifiserte sikring av AI-modeller mot tyveri og sabotasje som en betydelig utfordring for den nasjonale sikkerheten.
Nakasone sa: "AI vil få stadig større betydning for den nasjonale sikkerheten i diplomatiske, teknologiske og økonomiske spørsmål for vårt land og våre allierte og partnere." De "diplomatiske" og "teknologiske" aspektene ved nasjonal sikkerhet kommer stadig mer i fokus etter hvert som verdens stormakter konkurrerer på AI-scenen.
"Våre motstandere, som i flere tiår har brukt tyveri og utnyttelse av vår intellektuelle eiendom for å fremme sine interesser, vil forsøke å utnytte våre fremskritt innen kunstig intelligens og korrumpere vår anvendelse av den", sa Nakasone, uten å nevne Kina eksplisitt.
Det nye AI-sikkerhetssenteret vil falle inn under det operative tilsynet til NSAs Cybersecurity Collaboration Center. Nakasone forklarte at det nye senteret vil fokusere på å "fremme sikker bruk av nye AI-funksjoner på tvers av den nasjonale sikkerhetsvirksomheten og forsvarsindustrien".
AI: Både årsaken til og løsningen på problemet
De åpenbare risikoene ved AI som våpen er noen av de klare og åpenbare områdene som NSA fokuserer på.
NSA-direktøren sa at avdelingen hans ennå ikke hadde oppdaget forsøk fra Kina eller Russland på å påvirke det kommende valget i USA, men basert på tidligere erfaringer var risikoen fortsatt til stede.
A fersk rapport fremhevet en økning i cybersikkerhetsangrep fra kinesiske cyberaktører kjent som BlackTech. Etter hvert som kunstig intelligens blir bedre, vil også disse angrepene bli mer sofistikerte og omfattende.
Å bruke kunstig intelligens til å behandle store datamengder og ta beslutninger for å identifisere og redusere disse risikoene er et attraktivt perspektiv. Men når kunstig intelligens innlemmes i virksomheten til nasjonale sikkerhetsorganisasjoner som NSA, åpner det også opp for nye risikoer.
Hvis vi ikke forstår nøyaktig hvordan en AI-modell kommer frem til en anbefaling, kan vi da stole på den? Hvis modellen er utsatt for skjevheter eller hallusinasjoner, kan det underliggende datasettet være korrupt av ondsinnede aktører?
Den CIA kunngjorde at de utviklet sin egen AI-versjon av ChatGPT, og DARPA forsker på hvordan man bruker kunstig intelligens til å ta beslutninger på slagmarken. Tenk deg hva som kan skje hvis disse AI-verktøyene kan påvirkes til å gi dårlige råd.
NSAs sikkerhetssenter har som mål å beskytte disse institusjonene mot at teknologien deres blir stjålet eller sabotert av USAs motstandere. Direktøren understreket også at AI ikke vil automatisere nasjonale sikkerhetsbeslutninger.
"AI hjelper oss, men beslutningene våre tas av mennesker", sier Nakasone. Men jo bedre AI blir, jo mer vil menneskene stole på den når de skal ta beslutninger.
Og jo mer nasjonal sikkerhet er avhengig av AI, jo mer sårbart blir samfunnet for en AI-feil eller sabotasje.