I ricercatori hanno presentato un nuovo tipo di virus informatico che sfrutta la potenza dei grandi modelli linguistici (LLM) per eludere il rilevamento e propagarsi.
Questo "cancro sintetico", come lo chiamano i suoi creatori, rappresenta quella che potrebbe essere una nuova era del malware.
David Zollikofer dell'ETH di Zurigo e Benjamin Zimmerman dell'Ohio State University hanno sviluppato questo malware proof-of-concept nell'ambito della presentazione della domanda di partecipazione al progetto Premio svizzero per la sicurezza dell'intelligenza artificiale.
La loro creazione, descritta in dettaglio in un carta per prestampa intitolato "Synthetic Cancer - Augmenting Worms with LLMs", dimostra il potenziale di sfruttamento dell'IA per creare nuovi attacchi informatici altamente sofisticati.
Ecco una descrizione dettagliata di come funziona:
- Installazione: Il malware viene inizialmente consegnato tramite un allegato di posta elettronica. Una volta eseguito, può scaricare ulteriori file e potenzialmente criptare i dati dell'utente.
- Replica: La fase interessante sfrutta GPT-4 o LLM simili. Il worm può interagire con questi modelli di intelligenza artificiale in due modi: a) attraverso chiamate API a servizi basati su cloud come GPT-4 di OpenAI. Oppure b) eseguendo un LLM locale (che potrebbe essere comune nei dispositivi futuri).
- Utilizzo di GPT-4/LLM: Zollikofer ha spiegato al New ScientistChiediamo a ChatGPT di riscrivere il file, mantenendo intatta la struttura semantica, ma cambiando il modo in cui le variabili sono nominate e modificando un po' la logica". L'LLM genera quindi una nuova versione del codice con nomi di variabili modificati, logica ristrutturata e potenzialmente anche stili di codifica diversi, il tutto mantenendo la funzionalità originale.
- Diffusione: Il worm scansiona la cronologia delle e-mail di Outlook della vittima e fornisce questo contesto all'intelligenza artificiale. L'LLM genera quindi risposte di posta elettronica contestualmente rilevanti, complete di tattiche di social engineering progettate per incoraggiare i destinatari ad aprire una copia allegata del worm.
Come possiamo vedere, il virus utilizza l'intelligenza artificiale in due giorni: per creare il codice per auto-replicarsi e per scrivere contenuti di phishing per continuare a diffondersi.
Inoltre, ta capacità del worm di riscrivere il proprio codice rappresenta un problema particolarmente impegnativo per gli esperti di sicurezza informatica, in quanto potrebbe rendere obsolete le tradizionali soluzioni antivirus basate sulle firme.
"Il lato dell'attacco ha alcuni vantaggi in questo momento, perché ci sono state più ricerche in merito", osserva Zollikofer.
I ricercatori della Cornell Tech hanno segnalato un worm simile alimentato dall'intelligenza artificiale a marzo. Ben Nassi e il suo team ha creato un verme che potrebbe attaccare gli assistenti di posta elettronica dotati di intelligenza artificiale, rubare dati sensibili e propagarsi ad altri sistemi.
Il team di Nassi ha preso di mira gli assistenti di posta elettronica basati su GPT-4 di OpenAI, Gemini Pro di Google e il modello open-source LLaVA.
"Possono essere nomi, numeri di telefono, numeri di carte di credito, SSN, tutto ciò che è considerato riservato". Nassi ha dichiarato a Wiredsottolineando il potenziale di massicce violazioni dei dati.
Mentre il worm di Nassi prendeva di mira principalmente gli assistenti AI, la creazione di Zollikofer e Zimmerman si spinge oltre, manipolando direttamente il codice del malware e scrivendo autonomamente le e-mail di phishing.
I timori per la cybersicurezza dell'intelligenza artificiale sono in agguato
Sono stati giorni tumultuosi per la sicurezza informatica nel contesto dell'intelligenza artificiale, con Disney subisce una violazione dei dati per mano di un gruppo di hacktivisti.
Il gruppo ha dichiarato che sta combattendo contro le aziende tecnologiche per rappresentare i creatori il cui lavoro protetto da copyright è stato rubato o il cui valore è stato altrimenti sminuito.
Non molto tempo fa, OpenAI è stato esposto per aver subito una violazione nel 2023, che hanno cercato di tenere nascosta. E non molto tempo fa, OpenAI e Microsoft ha pubblicato un rapporto ammettendo che gruppi di hacker di Russia, Corea del Nord e Cina hanno utilizzato i loro strumenti di intelligenza artificiale per elaborare strategie di attacco informatico.
Gli autori dello studio, Zollikofer e Zimmerman, hanno messo in atto diverse misure di salvaguardia per evitare abusi, tra cui quella di non condividere pubblicamente il codice e di lasciare deliberatamente vaghi i dettagli specifici nel loro documento.
"Siamo pienamente consapevoli che questo documento presenta un tipo di malware con un grande potenziale di abuso", affermano i ricercatori nella loro divulgazione. "Lo pubblichiamo in buona fede e nel tentativo di sensibilizzare l'opinione pubblica".
Nel frattempo, Nassi e i suoi colleghi hanno previsto che i vermi dell'intelligenza artificiale potrebbero iniziare a diffondersi in natura "nei prossimi anni" e "scateneranno risultati significativi e indesiderati".
Visti i rapidi progressi a cui abbiamo assistito in soli quattro mesi, questa tempistica sembra non solo plausibile, ma potenzialmente conservativa.