Artisti aggiunti a Stability AI ripresentato, causa Midjourney

3 dicembre 2023

La causa intentata da un gruppo di artisti contro Stability AI e altri è stata ripresentata con l'aggiunta di altri sette querelanti.

La causa originale ha visto respingere le proprie richieste di risarcimento per violazione del copyright in ottobre dal giudice William Orrick, che non ha ritenuto che la generazione di immagini simili equivalga a una violazione del copyright.

Pur respingendo questo aspetto della richiesta, Orrick ha detto che i querelanti potrebbero ripresentare una causa modificata in cui dovrebbero essere più convincenti nelle loro accuse contro Stability AI, Midjourney, DeviantArt e Runway.

I querelanti iniziali erano gli artisti Sarah Anderson, Kelly McKernan e Karla Ortiz. A loro si sono aggiunti H. Southworth, Grzegorz Rutkowski, Gregory Manchess, Gerald Brom, Jingna Zhang, Julia Kaye e Adam Ellis.

La causa ripresentata contiene alcune argomentazioni interessanti che, se accettate dal tribunale, avranno ramificazioni significative per tutti i modelli generativi di IA addestrati utilizzando dati protetti da copyright.

L'amministratore delegato di Stability AI Emad Mostaque è noto per i suoi discorsi fuori dalle righe e per le sue affermazioni spesso audaci o sensazionalistiche. Molte delle sue parole sono state citate come prova contro la sua azienda nell'archiviazione.

È possibile leggere il deposito della causa modificata qui, ma ecco alcuni punti salienti.

Può davvero fare una copia dell'originale?

Le precedenti richieste di risarcimento per copyright sono state respinte in parte perché il giudice ha stabilito che generare un'immagine simile non equivale a produrre una copia di un'immagine.

La nuova presentazione afferma che questi modelli possono duplicare i dati di addestramento e cita Mostaque: "Abbiamo preso 100.000 gigabyte di immagini e li abbiamo compressi in un file di due gigabyte che può ricreare qualsiasi [immagine] e iterazioni di queste".

Cita inoltre Mostaque che dice: "Ironia della sorte, i principali finanziatori della stabilità, a parte me, sono... gli artisti... LOL".

Il nuovo dossier afferma che "la legge sul copyright protegge le opere degli artisti dalle violazioni, creando diritti esclusivi per gli artisti di fare copie delle loro opere, di fare opere derivate dalle loro opere protette da copyright".

La parola "derivato" è fondamentale. Se chiedete a Midjourney di generare un'immagine nello stile di Kelly McKernan, voi e Midjourney avete violato il copyright di McKernan? Quando questo accade, l'artista non può che essere dispiaciuto:

I set di dati LAION

LAION ha creato il dataset LAION-5B contenente miliardi di immagini. Il dataset non contiene copie di immagini, ma piuttosto gli URL delle posizioni delle immagini. Per addestrare il modello è necessario recuperare le immagini e LAION ha creato un software che consente di farlo.

La causa sostiene che LAION ha permesso la violazione del copyright e che Stability AI è stata complice. Nell'agosto del 2022, il CEO di Stability, Mostaque, ha dichiarato: "Ho finanziato LAION, il set di dati sottostante a ... Stable Diffusion". Mostaque ha poi smentito questa affermazione.

I dataset LAION sono fondamentali per la maggior parte dei generatori di immagini AI. Se l'uso del set di dati LAION-5B è considerato una violazione del copyright, allora si chiude la maggior parte dei generatori di immagini preferiti.

GPT-4 Vision è stato addestrato sui dataset LAION? OpenAI non lo dice, ma potrebbe diventare un grosso problema anche per loro.

Stable Diffusion memorizza copie delle immagini?

Nella causa iniziale, gli avvocati di Stability AI hanno sostenuto che era sbagliato affermare che il modello di Stable Diffusion contenesse copie delle immagini su cui era stato addestrato. Sostenevano che era impossibile che miliardi di immagini fossero memorizzate in un modello grande circa 2 GB.

Il nuovo deposito insiste sul fatto che, grazie all'apprendimento automatico, Stable Diffusion memorizza, in modo innovativo, copie compresse di immagini protette da copyright.

La presentazione modificata cita Mostaque che descrive Stable Diffusion in un'intervista registrata dell'agosto 2022:

"Vale la pena fare un passo indietro e pensare a quanto sia folle tutto questo: abbiamo preso cento terabyte di dati, centomila megabyte di immagini, 2 miliardi di immagini, e le abbiamo ridotte a un file di 2-4 gigabyte. E quel file può creare tutto ciò che avete visto. È una follia, vero? È il massimo della compressione che si possa ottenere".

Un caso significativo per la Gen AI

Ci sono molte altre questioni significative sollevate nella causa che, una volta decise, avranno un impatto sugli artisti e sulle aziende che stanno dietro ai modelli di intelligenza artificiale che generano le immagini.

Sembra che non ci sia modo di rimettere il genio dell'intelligenza artificiale nella bottiglia del copyright. Si tratterà di una class action di risarcimento per mea culpa da parte di Stability AI e di altre aziende come loro?

O forse la latitudine del "fair use" sarà ampliata per accogliere realtà di IA che un anno fa non esistevano.

In ogni caso, questa causa avrà effetti drammatici sull'industria e sul sostentamento degli artisti. Potrebbe anche indurre Emad Mostaque a scegliere con più attenzione le sue parole in futuro.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni