Il generale Paul Nakasone, direttore dell'NSA e del Comando informatico statunitense, ha annunciato un nuovo centro per la sicurezza dell'intelligenza artificiale in un discorso al National Press Club.
Con la crescente integrazione dell'IA nelle infrastrutture di difesa, sicurezza nazionale e civili, l'NSA vede sempre più la necessità di affrontare i rischi associati.
Un recente studio condotto dall'NSA ha individuato nella protezione dei modelli di intelligenza artificiale da furti e sabotaggi una sfida significativa per la sicurezza nazionale.
Nakasone ha dichiarato: "L'IA sarà sempre più determinante per la sicurezza nazionale in ambito diplomatico, tecnologico ed economico per il nostro Paese e per i nostri alleati e partner". Gli aspetti "diplomatici" e "tecnologici" della sicurezza nazionale stanno diventando sempre più importanti man mano che le potenze mondiali competono sul palcoscenico dell'IA.
"I nostri avversari, che per decenni hanno usato il furto e lo sfruttamento della nostra proprietà intellettuale per promuovere i loro interessi, cercheranno di cooptare i nostri progressi nell'IA e di corromperne l'applicazione", ha dichiarato Nakasone senza menzionare esplicitamente la Cina.
Il nuovo centro per la sicurezza dell'intelligenza artificiale sarà sottoposto alla supervisione operativa del Cybersecurity Collaboration Center dell'NSA. Nakasone ha spiegato che il nuovo centro si concentrerà sulla "promozione dell'adozione sicura di nuove capacità di IA nell'impresa di sicurezza nazionale e nell'industria della difesa".
AI: sia la causa che la soluzione del problema
I rischi evidenti dell'IA come arma sono alcune delle aree chiare ed evidenti su cui si sta concentrando l'NSA.
Il direttore dell'NSA ha dichiarato che il suo dipartimento non ha ancora individuato tentativi da parte della Cina o della Russia di influenzare le prossime elezioni statunitensi, ma sulla base dell'esperienza passata, il rischio rimane.
A rapporto recente ha evidenziato un'impennata degli attacchi alla sicurezza informatica da parte di attori informatici cinesi noti come BlackTech. Con il miglioramento dell'intelligenza artificiale, aumenteranno anche la sofisticazione e la portata di questi attacchi.
L'utilizzo dell'IA per elaborare grandi quantità di dati e prendere decisioni per identificare e ridurre questi rischi è una prospettiva interessante. Ma l'integrazione dell'IA nelle operazioni di organizzazioni di sicurezza nazionale come l'NSA le espone anche a nuovi rischi.
Se non capiamo esattamente come un modello di intelligenza artificiale arriva a una raccomandazione, possiamo fidarci? Se il modello è soggetto a distorsioni o allucinazioni, il set di dati sottostante potrebbe essere corrotto da attori malintenzionati?
Il CIA ha annunciato di stare sviluppando una propria versione AI di ChatGPT e la DARPA sta effettuando ricerche su come utilizzare l'intelligenza artificiale per prendere decisioni sul campo di battaglia. Immaginate cosa potrebbe accadere se questi strumenti di intelligenza artificiale potessero essere influenzati a dare consigli sbagliati.
Il centro di sicurezza dell'NSA mira a proteggere queste istituzioni dal furto o dal sabotaggio della loro tecnologia da parte degli avversari degli Stati Uniti. Il direttore ha anche sottolineato che l'intelligenza artificiale non automatizzerà le decisioni in materia di sicurezza nazionale.
"L'intelligenza artificiale ci aiuta, ma le nostre decisioni sono prese dagli esseri umani", ha detto Nakasone. Ma più l'IA migliora, più gli esseri umani si affideranno ad essa per prendere le loro decisioni.
E più la sicurezza nazionale si affida all'IA, più la società diventa vulnerabile a un guasto o a un sabotaggio dell'IA.