Il National Cyber Security Centre (NCSC) del Regno Unito ha recentemente pubblicato un rapporto fondamentale, che fornisce una valutazione approfondita di come l'intelligenza artificiale sia destinata a influenzare il panorama delle minacce informatiche nei prossimi due anni.
Il presente rapporto fa seguito alle discussioni tenutesi al Vertice sulla sicurezza dell'intelligenza artificiale a Bletchley nel novembre 2023, dove la "doppia natura" dell'IA, che rappresenta sia un beneficio che un rischio per la cybersicurezza, è stata un punto focale.
Se da un lato i progressi dell'intelligenza artificiale offrono nuove opportunità per la difesa informatica, dall'altro aprono la strada ad attacchi informatici più sofisticati e difficili da individuare.
Il rapporto suggerisce un futuro in cui il panorama della cybersecurity diventerà sempre più complesso, con l'IA che svolgerà un ruolo centrale sia nella difesa che nella facilitazione delle minacce informatiche.
Chiave rischi del rapporto includono:
- Intensificazione del volume e dell'impatto degli attacchi informatici: L'intelligenza artificiale è destinata ad aumentare la frequenza e la gravità degli attacchi informatici.
- Riduzione delle barriere per i criminali informatici principianti: Le tecnologie AI stanno facilitando l'esecuzione di attacchi informatici efficaci da parte di criminali informatici dilettanti o alle prime armi.
- Disponibilità diffusa di capacità informatiche abilitate dall'IA: La crescente accessibilità degli strumenti di intelligenza artificiale nei mercati criminali e commerciali probabilmente doterà gli attori delle minacce informatiche di nuovi approcci.
- Maggiori sfide per la resilienza informatica: L'intelligenza artificiale complicherà la distinzione tra comunicazioni legittime e dannose, amplificando le sfide nella gestione della sicurezza informatica.
- Ingegneria sociale: L'intelligenza artificiale aumenta le capacità degli attori delle minacce nell'ingegneria sociale, generando documenti e comunicazioni di richiamo dall'aspetto autentico, necessari per le truffe di phishing.
- Sviluppo di malware ed exploit: È probabile che l'intelligenza artificiale contribuisca allo sviluppo di malware ed exploit, rendendo più efficienti le tecniche esistenti.
- Ricognizione: L'intelligenza artificiale migliorerà le attività di ricognizione, aiutando gli attori delle minacce a identificare più rapidamente le risorse di alto valore da esaminare e l'esfiltrazione (un trasferimento di dati non autorizzato).
Lindy Cameron, Chief Executive dell'NCSC, ha spiegato il rapporto: "L'uso emergente dell'IA negli attacchi informatici è evolutivo e non rivoluzionario, il che significa che migliora le minacce esistenti come il ransomware, ma non trasforma il panorama dei rischi nel breve termine".
Questo potrebbe portare a un'impennata degli attacchi informatici, soprattutto ransomware, da parte di individui o gruppi meno esperti. Tuttavia, gli attori statali altamente capaci in materia di minacce rimangono nella posizione migliore per utilizzare l'IA nello sviluppo di malware avanzato.
Abbiamo già visto il potenziale degli strumenti di IA generativa orientati alle frodi come FraudGPT e WormGPT.
Come l'NCSC, anche precedenti rapporti di simile tenore hanno evidenziato la democratizzazione dell'IA e la scalabilità degli attacchi informatici, tra cui OpenAI, che recentemente annunciato i suoi piani per reprimere la disinformazione elettorale e i falsi profondi.
OpenAI è che ora collabora con il Dipartimento della Difesa degli Stati Uniti per sostenere e innovare le difese informatiche, tra le altre cose, e ha annunciato una $1 milioni di sovvenzione per le soluzioni dell'anno scorso.