Il NIST pubblica un documento su quattro possibili tipi di attacchi di IA generativa

6 gennaio 2024

NIST

Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha sollevato dubbi sulla sicurezza dei sistemi di IA predittivi e generativi.

Secondo Apostol Vassilev, informatico del NIST, nonostante i progressi nella sicurezza, queste tecnologie rimangono vulnerabili a una serie di attacchi.

In un carta collaborativa intitolato "Adversarial Machine Learning: Una tassonomia e terminologia degli attacchi e delle mitigazioniVassilev, insieme ai colleghi della Northeastern University e di Robust Intelligence, classifica i rischi per la sicurezza posti dai sistemi di intelligenza artificiale. 

Vassilev ha dichiarato: "Nonostante i notevoli progressi compiuti dall'IA e dall'apprendimento automatico, queste tecnologie sono vulnerabili agli attacchi che possono causare guasti spettacolari con conseguenze disastrose". 

Ha inoltre messo in guardia da qualsiasi azienda che affermi di offrire un'IA "completamente sicura".

Questo fa parte del Iniziativa NIST per un'IA affidabile e responsabileallineandosi agli obiettivi del governo statunitense in materia di sicurezza dell'IA. Esamina le tecniche di apprendimento automatico avversarie, concentrandosi su quattro principali problemi di sicurezza: evasione, avvelenamento, privacy e attacchi abusivi.

Gli attacchi di evasione avvengono dopo l'installazione, alterando gli input per confondere i sistemi di intelligenza artificiale. Ad esempio, modificando i segnali di stop in modo che i veicoli autonomi li interpretino come segnali di limite di velocità, o creando segnaletica di corsia ingannevole per portare i veicoli fuori strada.

Negli attacchi di avvelenamento, durante l'addestramento vengono introdotti dati corrotti. Ciò potrebbe comportare l'inserimento di un linguaggio inappropriato e frequente nei set di dati di addestramento, inducendo il chatbot ad adottare questo linguaggio nelle interazioni con i clienti.

Gli attacchi alla privacy mirano a estrarre informazioni sensibili sull'IA o sui suoi dati di addestramento, spesso attraverso metodi di reverse-engineering. Ciò può comportare l'utilizzo delle risposte di un chatbot per individuare le fonti di formazione e i punti deboli.

Gli attacchi di abuso manipolano fonti legittime, come le pagine web, fornendo ai sistemi di intelligenza artificiale informazioni false per alterarne il funzionamento. Questo differisce dagli attacchi di avvelenamento, che corrompono il processo di addestramento stesso.

Gli attacchi di evasione prevedono la creazione di esempi avversari per ingannare i sistemi di intelligenza artificiale durante l'implementazione, come l'errata identificazione dei segnali di stop nei veicoli autonomi. 

Alina Oprea della Northeastern University, che ha partecipato al progetto studio, ha spiegato: "La maggior parte di questi attacchi è abbastanza facile da realizzare e richiede una conoscenza minima del sistema di intelligenza artificiale e capacità avversarie limitate".

Il NIST criticato per i legami con il think tank sull'IA

Separatamente, sono state sollevate preoccupazioni su un progetto di collaborazione per la ricerca sull'intelligenza artificiale tra il NIST e la RAND Corp.

RAND, nota per i suoi legami con i miliardari del settore tecnologico e la movimento di altruismo effettivoha svolto un importante ruolo di consulenza nella definizione della Ordine esecutivo sulla sicurezza dell'IA

I membri della Commissione per la scienza, lo spazio e la tecnologia della Camera, tra cui Frank Lucas e Zoe Lofgren, hanno criticato la mancanza di trasparenza di questa partnership. 

Le preoccupazioni della commissione sono duplici: In primo luogo, si chiede perché non sia stato avviato un processo competitivo per la selezione di RAND per la ricerca sulla sicurezza dell'IA. 

Di solito, quando agenzie governative come il NIST concedono sovvenzioni per la ricerca, aprono la possibilità a diverse organizzazioni di presentare domanda, garantendo un processo di selezione equo. Ma in questo caso, sembra che RAND sia stata scelta senza tale processo.

In secondo luogo, c'è un certo disagio riguardo all'attenzione di RAND per la ricerca sull'IA. Il RAND è stato coinvolto in studi sull'IA e sulla biosicurezza e di recente ha ricevuto finanziamenti significativi per questo lavoro da fonti strettamente legate all'industria tecnologica. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni