Lo strumento di avvelenamento dei dati aiuta gli artisti a punire gli scrapers dell'AI

24 ottobre 2023

Premio d'arte AI
Théâtre D'opéra Spatial, generato con MidJourney, ha vinto un premio d'arte nel 2022. L'artista Jason Matthew Allen ha dichiarato di averci impiegato 80 ore, anche se alcuni ne dubitano. Fonte: Wikipedia: Wikipedia.

I ricercatori dell'Università di Chicago hanno sviluppato un nuovo strumento per "avvelenare" i modelli di IA quando le aziende di IA includono immagini nei loro set di dati senza consenso.

Aziende come OpenAI e Meta hanno dovuto affrontare critiche e cause legali per il fatto di aver raschiato in massa i contenuti online per addestrare i loro modelli. Per essere efficaci, i generatori di testo-immagine come DALL-E o Midjourney devono essere addestrati su grandi quantità di dati visivi.

Un certo numero di artisti si sono lamentati del fatto che questi generatori di immagini sono ora in grado di produrre immagini nel loro stile dopo aver fatto uno scraping della loro arte senza consenso.

Il i ricercatori hanno creato Nightshade, uno strumento che incorpora pixel invisibili in un'immagine e che successivamente la rende "velenosa" per i modelli di intelligenza artificiale.

L'intelligenza artificiale generativa si basa su dati correttamente etichettati. Se un modello di IA viene addestrato su migliaia di immagini di gatti e le immagini sono tutte etichettate come "gatto", allora sa come dovrebbe essere un gatto quando gli si chiede di generare un'immagine di un gatto.

Nightshade inserisce nell'immagine dei dati che ne alterano la classificazione. Per esempio, l'immagine di un castello avvelenato da Nightshade verrebbe classificata come un vecchio camion. I ricercatori hanno scoperto che l'utilizzo di appena 100 immagini mirate a un singolo prompt era efficace per corrompere un modello.

Le immagini generate diventano sempre più corrotte con altri dati avvelenati. Fonte: arXiv

Nightshade è una cattiva notizia per i generatori di immagini AI

Un modello affetto da dati avvelenati potrebbe essere indotto a pensare che le immagini di torte siano cappelli o che i tostapane siano borse. Oltre a corrompere la parola specifica presa di mira da Nightshade, la corruzione infetta anche concetti più ampi. Quindi, la corruzione dell'etichetta "cane" si estenderebbe anche a termini come "cucciolo".

Se un numero sufficiente di artisti iniziasse a usare Nightshade, le aziende potrebbero essere molto più attente a ottenere il consenso prima di acquisire le immagini.

Il team di ricerca incorporerà Nightshade nello strumento Glaze, anch'esso sviluppato. Glaze etichetta erroneamente lo stile di un'immagine. Ad esempio, un artista che vuole proteggere lo stile della sua opera può usare Glaze per etichettarla come "impressionista" quando in realtà è "pop art".

Il fatto che strumenti come Nightshade funzionino in modo così efficace mette in evidenza una vulnerabilità nei generatori di testo-immagine che potrebbero essere sfruttati da soggetti malintenzionati.

Aziende come OpenAI e Stability AI affermano che rispetteranno le norme di legge. opt-out per il "do not scrape che i siti web possono aggiungere ai loro file robots.txt. Se le immagini avvelenate da Nightshade non vengono raschiate, i modelli non ne risentono.

Tuttavia, i malintenzionati potrebbero avvelenare una grande quantità di immagini e renderle disponibili per lo scraping con l'intento di danneggiare i modelli di intelligenza artificiale. L'unico modo per ovviare a questo problema è quello di migliorare i rilevatori di etichette o di recensione umana.

Nightshade farà sentire gli artisti un po' più sicuri nel mettere online i loro contenuti, ma potrebbe causare seri problemi ai generatori di immagini AI.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni