Il gennaio 2024 è iniziato con la notizia che Midjourney, un'azienda leader nel mondo della generazione di immagini AI, ha utilizzato i nomi e gli stili di oltre 16.000 artisti senza il loro consenso per addestrare i suoi modelli di generazione di immagini.
È possibile visualizzare il database degli artisti sotto l'Allegato J di una causa presentata contro Midjourney, Stability AI e DeviantArt.
Nella stessa settimana della rivelazione, lo scienziato cognitivo Dr. Gary Marcus e il concept artist Reid Southen hanno pubblicato un'analisi in IEEE dal titolo "L'intelligenza artificiale generativa ha un problema di plagio visivo".
Hanno condotto una serie di esperimenti con i modelli AI Midjourney e DALL-E 3 per esplorare la loro capacità di generare immagini che potrebbero violare materiale protetto da copyright.
Sottoponendo Midjourney e DALL-E 3 a richieste intenzionalmente brevi e relative a film commerciali, personaggi e ambientazioni riconoscibili, Marcus e Southen hanno rivelato l'incredibile capacità di questi modelli di produrre contenuti palesemente protetti da copyright.
Hanno utilizzato suggerimenti relativi a film specifici, come "Avengers: Infinity War", senza nominare direttamente i personaggi. In questo modo si voleva verificare se l'intelligenza artificiale avrebbe generato immagini molto simili al materiale protetto da copyright solo grazie a indicazioni contestuali.
Anche i cartoni animati sono stati presi in considerazione: hanno sperimentato la generazione di immagini dei personaggi de "I Simpson", utilizzando suggerimenti che hanno portato i modelli di intelligenza artificiale a produrre immagini distintamente riconoscibili dello show.
Infine, Marcus e Southen hanno testato richieste che non alludevano affatto a materiale protetto da copyright, dimostrando la capacità di Midjourney di richiamare immagini protette da copyright anche quando non erano state specificamente richieste.
Midjourney sta ricreando in massa, e talvolta quasi alla lettera, IP senza licenza a partire da richieste non specifiche, traendo profitto dagli abbonamenti. Gli utenti di MJ non devono vendere le immagini perché si verifichi una potenziale violazione del copyright, MJ trae già profitto dalla loro creazione. pic.twitter.com/Ax3tQWq3pt
- Reid Southen (@Rahll) 7 gennaio 2024
Si tratta di qualcosa di più di un'esposizione tecnica, che tocca i nervi scoperti delle comunità artistiche di tutto il mondo.
L'arte, dopo tutto, non è equivalente ai dati. È il culmine di una vita di investimenti emotivi, di esplorazioni personali e di un lavoro accurato.
Lo studio di Marcus e Southen stava per diventare parte di un lungo dibattito che si estendeva al copyright, alla proprietà intellettuale, alla monetizzazione dell'IA e all'uso aziendale dell'IA generativa.
Le aziende utilizzano il lavoro generato dall'IA e gli osservatori non lo ignorano
Una delle parole d'ordine del marketing dell'IA generativa per l'adozione da parte delle aziende è "efficienza", o suoi derivati.
Sia che le aziende utilizzino la tecnologia per risparmiare tempo, denaro o risolvere problemi, sappiamo da tempo che l'"efficienza" dell'IA comporta il rischio di sostituire le competenze umane o i posti di lavoro.
Le aziende sono spesso incoraggiate a vedere questa situazione come un'opportunità. Sostituire un essere umano con l'IA è spesso visto come una scelta strategica.
Tuttavia, vedere questo compromesso tra uomini e macchine in modo così lineare può rivelarsi un grave errore, come dimostrano candidamente gli eventi che seguono.
Le persone non sono disposte a lasciar correre i casi di abuso dell'IA aziendale quando hanno l'opportunità di affrontarli.
ID@Xbox
Xbox, attraverso la sua divisione di giochi indie ID@Xbox, ha pubblicato una scena invernale generata dall'intelligenza artificiale. La cosa ha suscitato un senso di ironia, dato che questa divisione di Xbox è incentrata sugli sviluppatori indipendenti e sul sostegno e la promozione del loro lavoro.
Xbox ha poi rimosso il post, ma non ha dato seguito alla questione.
Nel caso in cui qualcuno stia tenendo il conto... Xbox E Game Informer hanno entrambi usato o promosso l'IA generativa relativamente di recente. https://t.co/cOvkU3WXQ8 pic.twitter.com/2d5oeVTCLN
- Genel Jumalon ✈️ MagFest (@GenelJumalon) 7 gennaio 2024
Game Informer, come potete vedere qui sopra, ha anche pubblicato un'immagine di scarsa qualità generata dall'intelligenza artificiale di Master Chief di Halo.
Magic: The Gathering
Il gioco di carte collezionabili fantasy Magic: The Gathering ha evocato una tempesta di critiche quando hanno pubblicato un'immagine parzialmente generata dall'IA di una nuova carta. In particolare, era lo sfondo a essere generato dall'IA, come evidenziato dalle linee e dalle curve distorte.
MTG ha inizialmente respinto le critiche degli osservatori, che si sono intensificate nel corso della settimana. La situazione è stata aggravata dal fatto che la società aveva precedentemente rilasciato una dichiarazione che si opponeva all'uso dell'IA nei suoi "prodotti principali".
Si trattava di un'immagine promozionale per i social media, quindi non ha infranto la promessa, ma è stata la smentita iniziale di MTG che ha fatto scattare l'allarme per molti.
"creato dall'uomo" Giusto... pic.twitter.com/gf9TUXWSPA
- TaylorGreen (@GreenSkyDragon) 5 gennaio 2024
Odio il fatto che viviamo in un tempo in cui dobbiamo verificare i fatti dell'arte. pic.twitter.com/9D6V6ZXswW
- Genel Jumalon ✈️ MagFest (@GenelJumalon) 5 gennaio 2024
Più tardi, nel corso della settimana, MTG ha concesso la sconfitta alle orde di osservatori, dicendo loro che l'immagine era stata generata dall'IA.
La dichiarazione iniziava così: "Abbiamo commesso un errore quando abbiamo detto che un'immagine di marketing che abbiamo pubblicato non era stata creata con l'IA. Per saperne di più" e spiega che probabilmente il designer ha utilizzato uno strumento di IA come Firefly, integrato in Photoshop, o un altro strumento di progettazione grafica dotato di IA, invece di generare l'intera immagine con Midjourney o simili.
Abbiamo commesso un errore quando abbiamo detto che un'immagine di marketing che abbiamo pubblicato non era stata creata con l'AI. Continuate a leggere per saperne di più. (1/5)
- Magic: The Gathering (@wizards_magic) 7 gennaio 2024
Un elemento di questo dibattito è che MTG probabilmente ha usato l'IA solo per generare lo sfondo dell'immagine.
Se Per questo è stato utilizzato Adobe FireflySebbene sia possibile, allora Adobe è ottimista per quanto riguarda l'uso etico e legale dei dati, anche se questo aspetto è discusso.
PForse non è il peggior attacco tra gli altri contendenti di questa settimana, a proposito...
Wacom
Uno dei maggiori errori della settimana è stato senza dubbio quello di Wacom, che produce tavolette da disegno per artisti e illustratori.
È sorprendente che, per un marchio fondato sull'aiuto agli artisti nella creazione di arte digitale, Wacom abbia utilizzato un'immagine generata dall'intelligenza artificiale per promuovere un buono sconto.
Anche in questo caso, gli utenti hanno identificato l'origine AI dell'immagine dalle distorsioni caratteristiche della tecnologia, come il testo in basso a sinistra dell'immagine. Gli osservatori hanno poi trovato il drago in Abobe Stock Images.
La reazione è stata brutale, con gli utenti di X che hanno umiliato il marchio e suggerito agli utenti di boicottare i loro prodotti.
Perché Wacom ha cancellato il suo post.
Postata per motivi di conservazione storica su Internet. https://t.co/WEZex5GbG9 pic.twitter.com/chiR2pOczB- Genel Jumalon ✈️ Animate Raleigh (@GenelJumalon) 6 gennaio 2024
Wacom si è scusata, ma il suo tentativo di scaricare la responsabilità su una terza parte non è stato visto di buon occhio.
Un messaggio dal team Wacom: pic.twitter.com/u06PNCvmhU
- Wacom (@wacom) 9 gennaio 2024
Lega delle Leggende
League of Legends è stato un altro marchio ad essere abbattuto dall'uso sgradevole di arte generata dall'IA.
Anche se forse si tratta di un esempio più controverso o borderline, ci sono certamente prove di IA, come quelle osservate in alcuni componenti e parti del corpo dalla forma goffa.
Nei giorni scorsi, Wizards of the Coast è stata beccata a usare l'IA nelle campagne pubblicitarie dopo aver detto che non l'avrebbe fatto. Anche Wacom è stata scoperta e cancellata, il che è pazzesco considerando i suoi prodotti, e sembra che anche Apex Legends lo sia. I lavori stanno andando avanti in tempo reale, mi fa venire la nausea. pic.twitter.com/EGBA1INMPZ
- Reid Southen (@Rahll) 7 gennaio 2024
Una resa dei conti per le aziende di AI?
2024 ha visto una continuazione di cause legali, con gli autori Nicholas Basbanes e Nicholas Gage Presentazione di un reclamo che affermano che OpenAI e Microsoft hanno sfruttato illegalmente le loro opere scritte, l'ultimo da quando il Dicembre causa del New York Times.
La causa intentata dal NYT, in particolare, potrebbe avere conseguenze monumentali per il settore dell'IA.
Alex Connock, senior fellow della Saïd Business School dell'Università di Oxford, ha sottolineato il potenziale impatto, affermando: "Se il Times dovesse vincere la causa, potrebbe essere catastrofico per l'intero settore dell'IA".
Ha poi approfondito le implicazioni, osservando che "una perdita del principio secondo cui il fair dealing potrebbe consentire l'apprendimento da materiali di terzi sarebbe un duro colpo per l'intero settore".
Il dottor Gary Marcus, coinvolto nello studio Midjourney dell'IEEE, ha anche definito il 2024 "l'anno della causa per l'IA" e ci si chiede se questo, unito alla regolamentazione e alla potenziale carenza di hardware, possa segnare un "inverno dell'IA", in cui il fervore del settore per lo sviluppo si raffredda.
Il 2024 sarà l'anno della causa in GenAI.
Se volete sapere perché, e perché GenAI probabilmente perderà molte di queste cause o sarà costretta a patteggiare, date un'occhiata agli ultimi post del mio sito (gratuito) 𝖲𝗎𝖻𝗌𝗍𝖺𝖼𝗄, Marcus on AI. https://t.co/cO4bqKkbsa
- Gary Marcus (@GaryMarcus) 8 gennaio 2024
Connock ha anche ipotizzato le ripercussioni più ampie di questo diluvio di cause legali, spiegando: "Se OpenAI dovesse perdere la causa, si aprirebbe l'opportunità per tutti gli altri creatori di contenuti che ritengono che i loro contenuti siano stati crawlati (che sono fondamentalmente tutti) e produrrebbe danni su scala industriale".
Connock teorizza: "Ciò che accadrà quasi inevitabilmente è che il NY Times si accontenterà, avendo ottenuto un accordo di monetizzazione migliore per l'uso dei suoi contenuti".
La scoperta di eventuali falle nell'armatura dell'industria dell'IA sarebbe enorme, sia per le grandi aziende come il NYT che per i creatori indipendenti.
Come ha dichiarato James Grimmelmann, professore di diritto digitale e dell'informazione alla Cornell, "i proprietari dei diritti d'autore si sono messi in fila per colpire l'IA generativa come una gigantesca pignatta fatta con le loro opere. Il 2024 sarà probabilmente l'anno in cui scopriremo se c'è del denaro all'interno".
Quanto è forte la difesa del settore? Finora, gli sviluppatori di IA si sono aggrappati alle loro argomentazioni di "fair use" e si sono protetti dal fatto che la maggior parte dei dataset popolari sono stati creati da entità diverse da loro, il che oscura la loro colpevolezza.
Le aziende tecnologiche sono abili nel contrastare le responsabilità legali che ostacolano la ricerca e lo sviluppo. E non dimentichiamo che l'IA offre opportunità ai governi che cercano "efficienza" e altri vantaggi, il che attenua la loro resistenza.
Il governo britannico, ad esempio, ha persino studiato un'eccezione al diritto d'autore per le aziende di IA, ma ha fatto marcia indietro dopo un'enorme resistenza e una commissione parlamentare.
In termini di strategia, in una discussione con il Los Angeles Times, William Fitzgerald, partner della Worker Agency ed ex membro del team di Google per le politiche pubbliche, ha detto che la big tech avrebbe avviare una forte campagna di lobbying, magari sul modello delle tattiche precedentemente utilizzate da giganti tecnologici come Google.
Ciò comporterebbe una combinazione di difesa legale, campagne di pubbliche relazioni e sforzi di lobbying, tattiche che sono state particolarmente visibili in passato in casi di alto profilo come la battaglia sullo Stop Online Piracy Act (SOPA) e la controversia su Google Books.
Fitzgerald osserva che OpenAI sembra seguire un percorso simile a quello di Google, non solo nell'approccio alla gestione delle denunce di copyright, ma anche nelle pratiche di assunzione.
E sottolinea: "Sembra che OpenAI stia replicando il manuale di lobbying di Google. Hanno assunto ex sostenitori di Google per applicare lo stesso manuale che ha avuto tanto successo per Google per decenni".
L'analisi di Fitzgerald implica che l'industria dell'IA, come altri settori tecnologici prima di lei, potrebbe fare affidamento su potenti azioni di lobbying e manovre strategiche di politica pubblica per plasmare il panorama legale a proprio favore.
È impossibile prevedere come andrà a finire. Ma si può essere certi che le grandi aziende tecnologiche sono pronte a lottare fino alla fine.