Un gruppo di sviluppatori di Chicago ha dotato gli artisti di Nightshade, un metodo di lotta contro le pratiche non etiche dei dati.
Nightshade è uno strumento sofisticato progettato per proteggere le opere d'arte digitali dall'uso non autorizzato nell'addestramento dell'intelligenza artificiale, introducendo campioni "velenosi".
Queste alterazioni sono impercettibili all'occhio umano, ma disturbano il processo di apprendimento dell'intelligenza artificiale, portando ad associazioni e risposte errate.
Il i ricercatori scrivonoGli occhi umani potrebbero vedere un'immagine ombreggiata di una mucca in un campo verde, ma un modello di intelligenza artificiale potrebbe vedere una grande borsa di pelle che giace nell'erba".
L'effetto si accumula, quindi più immagini "avvelenate" finiscono in un set di dati, più le prestazioni del modello si deteriorano.
Questo strumento si aggiunge alla precedente creazione dell'Università di Chicago, Glaze, che aiuta gli artisti a combattere il data scraping. "Glaze può cambiare cose come colori e pennellate, presentando uno stile artistico diverso da quello che c'è in realtà", spiegano gli sviluppatori.
Nightshade si discosta tuttavia dall'approccio di Glaze. "Mentre Glaze era uno strumento difensivo, Nightshade è stato progettato per essere uno strumento offensivo", afferma il team.
Sono terribilmente entusiasta di annunciare che "Artifact" è stato smaltato e oscurato da Nightshaded. @TheGlazeProject e anche un'opera perfetta per l'occasione. Si tratta di un dipinto sull'IA generativa che cannibalizza la voce autentica dei creativi umani. Quando questa immagine viene raschiata per l'addestramento, beh... pic.twitter.com/0VNFIyabc2
- Kelly McKernan (@Kelly_McKernan) 14 gennaio 2024
Come funziona Nightshade in cinque passi
Nightshade è uno strumento intelligente che utilizza le funzioni di apprendimento automatico coinvolte nell'addestramento dei modelli contro il sistema stesso, avvelenando il processo di apprendimento e portando a risultati peggiori tra i diversi modelli.
Comprendere la vulnerabilità
L'attacco Nightshade sfrutta una debolezza specifica dei modelli generativi testo-immagine. Questi modelli di intelligenza artificiale sono addestrati su vasti set di immagini e descrizioni testuali corrispondenti.
Tuttavia, il team dell'Università di Chicago ha scoperto che la quantità di dati di addestramento è piuttosto limitata per alcune richieste o soggetti specifici. Questo pool di dati limitato per richieste specifiche rende questi modelli vulnerabili ad attacchi mirati di avvelenamento dei dati.
Il concetto alla base di Nightshade
Nightshade è un metodo sofisticato progettato per eseguire il cosiddetto attacco di avvelenamento specifico del prompt.
In termini più semplici, è come introdurre un piccolo errore accuratamente progettato nel processo di apprendimento dell'IA, che porta a errori significativi e mirati quando l'IA genera immagini in base a determinati suggerimenti.
La caratteristica principale di Nightshade è la capacità di produrre campioni "avvelenati" che sembrano normali agli occhi umani, ma che sono radicalmente diversi nel modo in cui l'IA li percepisce e impara.
Creazione di campioni di veleno
Per eseguire un attacco Nightshade, i ricercatori generano innanzitutto quelle che chiamano "immagini di ancoraggio". Si tratta di immagini di un concetto non correlato all'obiettivo effettivo dell'attacco.
Ad esempio, se il concetto target è "cane", le immagini di ancoraggio potrebbero essere "gatti". Queste immagini di ancoraggio sono generate da un modello di intelligenza artificiale che gli utenti eseguono sul proprio PC.
Successivamente, i ricercatori trovano immagini reali del concetto target (come i cani) e le modificano sottilmente per allinearle alle caratteristiche delle immagini di riferimento nella percezione dell'intelligenza artificiale.
Per un essere umano, queste immagini modificate continuano ad assomigliare a cani, ma per l'intelligenza artificiale sono molto simili a gatti. Sebbene questo concetto possa essere difficile da comprendere, è importante ricordare che le forme che creano le immagini sono sempre fondamentalmente simili.
Le alterazioni sono chiamate perturbazioni avversarie. Sono accuratamente calcolate per spostare la rappresentazione dell'immagine nello spazio delle caratteristiche dell'intelligenza artificiale dalla regione associata ai gatti a quella associata ai cani.
Come l'attacco colpisce i modelli di IA
Quando un modello generativo di intelligenza artificiale viene addestrato su questi campioni avvelenati, inizia ad associare le caratteristiche del concetto non correlato (gatti) con il concetto target (cani).
Di conseguenza, quando viene richiesto di generare immagini di cani, il modello AI potrebbe produrre invece immagini di gatti. Questo perché la comprensione del concetto di "cane" da parte del modello è stata distorta dai dati avvelenati.
Anche se questo non "rompe" completamente un modello di IA, lo rende meno efficace e più imprevedibile, il che potrebbe certamente comprometterne l'usabilità.
Le aziende di IA probabilmente si opporranno a Nightshade e a tecniche simili, ma ciò richiederà tempo e sforzi.
Impatto
Un impatto chiave dell'attacco Nightshade è il suo effetto "bleed-through". Ciò significa che l'avvelenamento di un concetto può influenzare concetti correlati.
Ad esempio, avvelenare il concetto di "cane" potrebbe influenzare anche il modo in cui il modello genera immagini di animali correlati come "lupo" o "volpe".
Inoltre, quando più concetti sono avvelenati in un modello, ciò può compromettere la capacità del modello di generare immagini coerenti per un'ampia gamma di richieste.
Come gli artisti possono utilizzare Nightshade
Nightshade è uno strumento che si scarica e si usa da soli, ma richiede un notevole dispendio di risorse e una GPU Nvidia compatibile con almeno 4G di memoria.
Questo processo potrebbe essere semplificato in futuro, oppure potrebbero esistere servizi cloud in cui è possibile caricare semplicemente le immagini per farle diventare Nightshade.
Ecco come utilizzare Nightshade:
- Selezionare l'opera d'arte: È possibile trascinare una singola immagine nel segnaposto immagine o selezionare più immagini utilizzando il pulsante "Seleziona...".
- Regolare i parametri: L'intensità determina la forza dell'effetto di Nightshade. Un'intensità più elevata porta a un'alterazione più potente, ma può causare modifiche evidenti all'opera d'arte. La qualità del rendering indica il tempo di calcolo per trovare il livello di veleno ottimale. Una qualità più alta equivale a un veleno più forte, ma richiede più tempo. Se si dispone di una GPU, il processo sarà più veloce.
- Scegliere la directory di output: Selezionare la posizione in cui salvare le immagini Nightshaded.
- Selezionare l'etichetta del veleno: Nightshade agisce fuorviando l'intelligenza artificiale su alcuni concetti presenti nelle immagini. Ad esempio, può alterare le immagini etichettate come "auto" per farle percepire come "mucche" dai modelli di intelligenza artificiale. Nightshade suggerisce un tag basato sull'analisi dei contenuti quando seleziona l'immagine. Assicuratevi che il tag rifletta accuratamente il concetto chiave dell'immagine e, se necessario, modificatelo. L'efficacia di Nightshade aumenta quando l'immagine è associata a questo tag attraverso l'alt-text, le didascalie o il testo vicino.
- Eseguire Nightshade: Dopo aver finalizzato le impostazioni e confermato il tag dell'immagine, avviare il processo premendo il pulsante "Esegui". Le immagini modificate verranno salvate nella directory di output scelta.
- Trovate istruzioni dettagliate nella sezione guida ufficiale per l'utente qui.
Accoglienza comunitaria all'accoglienza Nightshade
Il sostegno agli artisti che cercano di difendere il loro lavoro dall'IA è stato schiacciante, ma come sempre le fazioni sono molteplici, e alcuni hanno parlato di un cyberattacco ai modelli di IA.
In risposta alle critiche, il team chiarisce: "L'obiettivo di Nightshade non è quello di rompere i modelli, ma di aumentare il costo della formazione su dati senza licenza, in modo tale che la licenza delle immagini dai loro creatori diventi una valida alternativa".
"Usato in modo responsabile, Nightshade può aiutare a scoraggiare i formatori di modelli che non rispettano i diritti d'autore, le liste di opt-out e le direttive do-not-scrape/robots.txt", affermano.
Il dibattito sullo scraping dei dati e sull'addestramento dei modelli di IA è diventato estremamente aspro dopo la controversia di Midjourney e il diluvio di aziende che utilizzano opere d'arte generate dall'IA, sostituendo così il lavoro umano.
Nightshade è uscito!
Nightshade avvelena i modelli dell'IA se la vostra arte o le vostre immagini vengono prese senza autorizzazione, Glaze vi protegge dall'imitazione dell'IA. Si consiglia di utilizzare prima Nightshade e poi Glaze. È in arrivo una versione che fa entrambe le cose.
Leggete questo thread per maggiori informazioni.
Andate a prenderli 🫡 https://t.co/bU8EDthUcS pic.twitter.com/YddNu8xmJm
- Reid Southen (@Rahll) 19 gennaio 2024
Improvvisamente, sembra che ci sia un vuoto sempre più ampio tra le aziende tecnologiche che commercializzano l'IA come forza filantropica e il pubblico, che ritiene che stia invadendo troppo la cultura e la società.
In effetti, Nightshade non è utile solo agli artisti. Le persone stanno incoraggiando il maggior numero possibile di persone a utilizzare questi strumenti, creando un bacino più ristretto di dati di alta qualità che le aziende di intelligenza artificiale possono raccogliere.
Ma le aziende hanno già abbastanza dati? Forse per ora, ma per mantenere i modelli attuali e aggiornati, gli sviluppatori di IA dovranno prima o poi introdurre nuovi dati nei loro sistemi.
#nightshade
Suggerimento: utilizzate Nightshade su tutto ciò che caricate online (non solo sulla vostra arte), sulle immagini dei social media, sulle foto quotidiane dei vostri pasti, della vostra famiglia, dei vostri cuccioli, dei vostri gattini, sui selfie casuali e sulle foto di strada - e che il gioco abbia inizio.- modifica ballai 🌿 (@eballai) 19 gennaio 2024
In Glaze e Nightshade, stiamo assistendo a una battaglia tecnologica ed etica emergente tra i creatori e le aziende di IA.
La situazione si fa sempre più interessante e potrebbero esistere modi simili per ingannare e avvelenare i modelli linguistici?
Questo, unito alle battaglie legali, potrebbe far entrare l'IA generativa in un periodo di volatilità. Sarà un anno importante per questa tecnologia.