Nightshade dell'Università di Chicago è progettato per avvelenare i modelli di intelligenza artificiale

20 gennaio 2024

Alghe notturne

Un gruppo di sviluppatori di Chicago ha dotato gli artisti di Nightshade, un metodo di lotta contro le pratiche non etiche dei dati.

Nightshade è uno strumento sofisticato progettato per proteggere le opere d'arte digitali dall'uso non autorizzato nell'addestramento dell'intelligenza artificiale, introducendo campioni "velenosi".

Queste alterazioni sono impercettibili all'occhio umano, ma disturbano il processo di apprendimento dell'intelligenza artificiale, portando ad associazioni e risposte errate.

Il i ricercatori scrivonoGli occhi umani potrebbero vedere un'immagine ombreggiata di una mucca in un campo verde, ma un modello di intelligenza artificiale potrebbe vedere una grande borsa di pelle che giace nell'erba". 

L'effetto si accumula, quindi più immagini "avvelenate" finiscono in un set di dati, più le prestazioni del modello si deteriorano.

Nightshade AI
Come funzionano gli attacchi del veleno Nightshade. Fonte: Università di Chicago via ArXiv

Questo strumento si aggiunge alla precedente creazione dell'Università di Chicago, Glaze, che aiuta gli artisti a combattere il data scraping. "Glaze può cambiare cose come colori e pennellate, presentando uno stile artistico diverso da quello che c'è in realtà", spiegano gli sviluppatori.

Nightshade si discosta tuttavia dall'approccio di Glaze. "Mentre Glaze era uno strumento difensivo, Nightshade è stato progettato per essere uno strumento offensivo", afferma il team. 

Come funziona Nightshade in cinque passi

Nightshade è uno strumento intelligente che utilizza le funzioni di apprendimento automatico coinvolte nell'addestramento dei modelli contro il sistema stesso, avvelenando il processo di apprendimento e portando a risultati peggiori tra i diversi modelli. 

Comprendere la vulnerabilità

L'attacco Nightshade sfrutta una debolezza specifica dei modelli generativi testo-immagine. Questi modelli di intelligenza artificiale sono addestrati su vasti set di immagini e descrizioni testuali corrispondenti.

Tuttavia, il team dell'Università di Chicago ha scoperto che la quantità di dati di addestramento è piuttosto limitata per alcune richieste o soggetti specifici. Questo pool di dati limitato per richieste specifiche rende questi modelli vulnerabili ad attacchi mirati di avvelenamento dei dati.

Il concetto alla base di Nightshade

Nightshade è un metodo sofisticato progettato per eseguire il cosiddetto attacco di avvelenamento specifico del prompt.

In termini più semplici, è come introdurre un piccolo errore accuratamente progettato nel processo di apprendimento dell'IA, che porta a errori significativi e mirati quando l'IA genera immagini in base a determinati suggerimenti.

La caratteristica principale di Nightshade è la capacità di produrre campioni "avvelenati" che sembrano normali agli occhi umani, ma che sono radicalmente diversi nel modo in cui l'IA li percepisce e impara.

Creazione di campioni di veleno

Per eseguire un attacco Nightshade, i ricercatori generano innanzitutto quelle che chiamano "immagini di ancoraggio". Si tratta di immagini di un concetto non correlato all'obiettivo effettivo dell'attacco.

Ad esempio, se il concetto target è "cane", le immagini di ancoraggio potrebbero essere "gatti". Queste immagini di ancoraggio sono generate da un modello di intelligenza artificiale che gli utenti eseguono sul proprio PC.

Successivamente, i ricercatori trovano immagini reali del concetto target (come i cani) e le modificano sottilmente per allinearle alle caratteristiche delle immagini di riferimento nella percezione dell'intelligenza artificiale.

AI Nightshade
Un esempio di come le immagini vengano progressivamente avvelenate dall'aggiunta di altri campioni. Fonte: Università di Chicago via ArXiv.

Per un essere umano, queste immagini modificate continuano ad assomigliare a cani, ma per l'intelligenza artificiale sono molto simili a gatti. Sebbene questo concetto possa essere difficile da comprendere, è importante ricordare che le forme che creano le immagini sono sempre fondamentalmente simili. 

Le alterazioni sono chiamate perturbazioni avversarie. Sono accuratamente calcolate per spostare la rappresentazione dell'immagine nello spazio delle caratteristiche dell'intelligenza artificiale dalla regione associata ai gatti a quella associata ai cani.

Come l'attacco colpisce i modelli di IA

Quando un modello generativo di intelligenza artificiale viene addestrato su questi campioni avvelenati, inizia ad associare le caratteristiche del concetto non correlato (gatti) con il concetto target (cani).

Di conseguenza, quando viene richiesto di generare immagini di cani, il modello AI potrebbe produrre invece immagini di gatti. Questo perché la comprensione del concetto di "cane" da parte del modello è stata distorta dai dati avvelenati.

Anche se questo non "rompe" completamente un modello di IA, lo rende meno efficace e più imprevedibile, il che potrebbe certamente comprometterne l'usabilità.

Le aziende di IA probabilmente si opporranno a Nightshade e a tecniche simili, ma ciò richiederà tempo e sforzi.

Impatto

Un impatto chiave dell'attacco Nightshade è il suo effetto "bleed-through". Ciò significa che l'avvelenamento di un concetto può influenzare concetti correlati.

Ad esempio, avvelenare il concetto di "cane" potrebbe influenzare anche il modo in cui il modello genera immagini di animali correlati come "lupo" o "volpe".

AI Nightshade
Questo rappresenta un modello in cui il concetto di "cane" viene avvelenato. Senza essere specificamente mirati, i concetti correlati
sono corrotti dall'avvelenamento (effetto "bleed-through"). Fonte: Università di Chicago via ArXiv

Inoltre, quando più concetti sono avvelenati in un modello, ciò può compromettere la capacità del modello di generare immagini coerenti per un'ampia gamma di richieste.

Come gli artisti possono utilizzare Nightshade

Nightshade è uno strumento che si scarica e si usa da soli, ma richiede un notevole dispendio di risorse e una GPU Nvidia compatibile con almeno 4G di memoria.

Questo processo potrebbe essere semplificato in futuro, oppure potrebbero esistere servizi cloud in cui è possibile caricare semplicemente le immagini per farle diventare Nightshade. 

Ecco come utilizzare Nightshade: 

  1. Selezionare l'opera d'arte: È possibile trascinare una singola immagine nel segnaposto immagine o selezionare più immagini utilizzando il pulsante "Seleziona...".
  2. Regolare i parametri: L'intensità determina la forza dell'effetto di Nightshade. Un'intensità più elevata porta a un'alterazione più potente, ma può causare modifiche evidenti all'opera d'arte. La qualità del rendering indica il tempo di calcolo per trovare il livello di veleno ottimale. Una qualità più alta equivale a un veleno più forte, ma richiede più tempo. Se si dispone di una GPU, il processo sarà più veloce.
  3. Scegliere la directory di output: Selezionare la posizione in cui salvare le immagini Nightshaded.
  4. Selezionare l'etichetta del veleno: Nightshade agisce fuorviando l'intelligenza artificiale su alcuni concetti presenti nelle immagini. Ad esempio, può alterare le immagini etichettate come "auto" per farle percepire come "mucche" dai modelli di intelligenza artificiale. Nightshade suggerisce un tag basato sull'analisi dei contenuti quando seleziona l'immagine. Assicuratevi che il tag rifletta accuratamente il concetto chiave dell'immagine e, se necessario, modificatelo. L'efficacia di Nightshade aumenta quando l'immagine è associata a questo tag attraverso l'alt-text, le didascalie o il testo vicino.
  5. Eseguire Nightshade: Dopo aver finalizzato le impostazioni e confermato il tag dell'immagine, avviare il processo premendo il pulsante "Esegui". Le immagini modificate verranno salvate nella directory di output scelta.
  6. Trovate istruzioni dettagliate nella sezione guida ufficiale per l'utente qui.

Accoglienza comunitaria all'accoglienza Nightshade

Il sostegno agli artisti che cercano di difendere il loro lavoro dall'IA è stato schiacciante, ma come sempre le fazioni sono molteplici, e alcuni hanno parlato di un cyberattacco ai modelli di IA. 

In risposta alle critiche, il team chiarisce: "L'obiettivo di Nightshade non è quello di rompere i modelli, ma di aumentare il costo della formazione su dati senza licenza, in modo tale che la licenza delle immagini dai loro creatori diventi una valida alternativa".

"Usato in modo responsabile, Nightshade può aiutare a scoraggiare i formatori di modelli che non rispettano i diritti d'autore, le liste di opt-out e le direttive do-not-scrape/robots.txt", affermano. 

Il dibattito sullo scraping dei dati e sull'addestramento dei modelli di IA è diventato estremamente aspro dopo la controversia di Midjourney e il diluvio di aziende che utilizzano opere d'arte generate dall'IA, sostituendo così il lavoro umano. 

Improvvisamente, sembra che ci sia un vuoto sempre più ampio tra le aziende tecnologiche che commercializzano l'IA come forza filantropica e il pubblico, che ritiene che stia invadendo troppo la cultura e la società. 

In effetti, Nightshade non è utile solo agli artisti. Le persone stanno incoraggiando il maggior numero possibile di persone a utilizzare questi strumenti, creando un bacino più ristretto di dati di alta qualità che le aziende di intelligenza artificiale possono raccogliere. 

Ma le aziende hanno già abbastanza dati? Forse per ora, ma per mantenere i modelli attuali e aggiornati, gli sviluppatori di IA dovranno prima o poi introdurre nuovi dati nei loro sistemi. 

In Glaze e Nightshade, stiamo assistendo a una battaglia tecnologica ed etica emergente tra i creatori e le aziende di IA. 

La situazione si fa sempre più interessante e potrebbero esistere modi simili per ingannare e avvelenare i modelli linguistici?

Questo, unito alle battaglie legali, potrebbe far entrare l'IA generativa in un periodo di volatilità. Sarà un anno importante per questa tecnologia.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni