Nel 2024 cresce la rabbia per l'uso improprio dell'IA da parte delle aziende: quale sarà il prossimo passo?

12 gennaio 2024

Il gennaio 2024 è iniziato con la notizia che Midjourney, un'azienda leader nel mondo della generazione di immagini AI, ha utilizzato i nomi e gli stili di oltre 16.000 artisti senza il loro consenso per addestrare i suoi modelli di generazione di immagini. 

È possibile visualizzare il database degli artisti sotto l'Allegato J di una causa presentata contro Midjourney, Stability AI e DeviantArt.

Nella stessa settimana della rivelazione, lo scienziato cognitivo Dr. Gary Marcus e il concept artist Reid Southen hanno pubblicato un'analisi in IEEE dal titolo "L'intelligenza artificiale generativa ha un problema di plagio visivo".

Hanno condotto una serie di esperimenti con i modelli AI Midjourney e DALL-E 3 per esplorare la loro capacità di generare immagini che potrebbero violare materiale protetto da copyright. 

Sottoponendo Midjourney e DALL-E 3 a richieste intenzionalmente brevi e relative a film commerciali, personaggi e ambientazioni riconoscibili, Marcus e Southen hanno rivelato l'incredibile capacità di questi modelli di produrre contenuti palesemente protetti da copyright. 

Hanno utilizzato suggerimenti relativi a film specifici, come "Avengers: Infinity War", senza nominare direttamente i personaggi. In questo modo si voleva verificare se l'intelligenza artificiale avrebbe generato immagini molto simili al materiale protetto da copyright solo grazie a indicazioni contestuali. 

Viaggio intermedio
È notevole che Midjourney includa personaggi protetti da copyright basati su semplici richieste come quella di "giocattoli animati". Fonte: IEEE

Anche i cartoni animati sono stati presi in considerazione: hanno sperimentato la generazione di immagini dei personaggi de "I Simpson", utilizzando suggerimenti che hanno portato i modelli di intelligenza artificiale a produrre immagini distintamente riconoscibili dello show. 

Infine, Marcus e Southen hanno testato richieste che non alludevano affatto a materiale protetto da copyright, dimostrando la capacità di Midjourney di richiamare immagini protette da copyright anche quando non erano state specificamente richieste. 

Si tratta di qualcosa di più di un'esposizione tecnica, che tocca i nervi scoperti delle comunità artistiche di tutto il mondo. 

L'arte, dopo tutto, non è equivalente ai dati. È il culmine di una vita di investimenti emotivi, di esplorazioni personali e di un lavoro accurato. 

Lo studio di Marcus e Southen stava per diventare parte di un lungo dibattito che si estendeva al copyright, alla proprietà intellettuale, alla monetizzazione dell'IA e all'uso aziendale dell'IA generativa.

Le aziende utilizzano il lavoro generato dall'IA e gli osservatori non lo ignorano

Una delle parole d'ordine del marketing dell'IA generativa per l'adozione da parte delle aziende è "efficienza", o suoi derivati.

Sia che le aziende utilizzino la tecnologia per risparmiare tempo, denaro o risolvere problemi, sappiamo da tempo che l'"efficienza" dell'IA comporta il rischio di sostituire le competenze umane o i posti di lavoro.

Le aziende sono spesso incoraggiate a vedere questa situazione come un'opportunità. Sostituire un essere umano con l'IA è spesso visto come una scelta strategica.

Tuttavia, vedere questo compromesso tra uomini e macchine in modo così lineare può rivelarsi un grave errore, come dimostrano candidamente gli eventi che seguono.

Le persone non sono disposte a lasciar correre i casi di abuso dell'IA aziendale quando hanno l'opportunità di affrontarli.

ID@Xbox

Xbox, attraverso la sua divisione di giochi indie ID@Xbox, ha pubblicato una scena invernale generata dall'intelligenza artificiale. La cosa ha suscitato un senso di ironia, dato che questa divisione di Xbox è incentrata sugli sviluppatori indipendenti e sul sostegno e la promozione del loro lavoro. 

Xbox ha poi rimosso il post, ma non ha dato seguito alla questione. 

Game Informer, come potete vedere qui sopra, ha anche pubblicato un'immagine di scarsa qualità generata dall'intelligenza artificiale di Master Chief di Halo.

Magic: The Gathering

Il gioco di carte collezionabili fantasy Magic: The Gathering ha evocato una tempesta di critiche quando hanno pubblicato un'immagine parzialmente generata dall'IA di una nuova carta. In particolare, era lo sfondo a essere generato dall'IA, come evidenziato dalle linee e dalle curve distorte. 

MTG ha inizialmente respinto le critiche degli osservatori, che si sono intensificate nel corso della settimana. La situazione è stata aggravata dal fatto che la società aveva precedentemente rilasciato una dichiarazione che si opponeva all'uso dell'IA nei suoi "prodotti principali".

Si trattava di un'immagine promozionale per i social media, quindi non ha infranto la promessa, ma è stata la smentita iniziale di MTG che ha fatto scattare l'allarme per molti.

Più tardi, nel corso della settimana, MTG ha concesso la sconfitta alle orde di osservatori, dicendo loro che l'immagine era stata generata dall'IA. 

La dichiarazione iniziava così: "Abbiamo commesso un errore quando abbiamo detto che un'immagine di marketing che abbiamo pubblicato non era stata creata con l'IA. Per saperne di più" e spiega che probabilmente il designer ha utilizzato uno strumento di IA come Firefly, integrato in Photoshop, o un altro strumento di progettazione grafica dotato di IA, invece di generare l'intera immagine con Midjourney o simili.

Un elemento di questo dibattito è che MTG probabilmente ha usato l'IA solo per generare lo sfondo dell'immagine.

Se Per questo è stato utilizzato Adobe FireflySebbene sia possibile, allora Adobe è ottimista per quanto riguarda l'uso etico e legale dei dati, anche se questo aspetto è discusso. 

PForse non è il peggior attacco tra gli altri contendenti di questa settimana, a proposito...

Wacom

Uno dei maggiori errori della settimana è stato senza dubbio quello di Wacom, che produce tavolette da disegno per artisti e illustratori. 

È sorprendente che, per un marchio fondato sull'aiuto agli artisti nella creazione di arte digitale, Wacom abbia utilizzato un'immagine generata dall'intelligenza artificiale per promuovere un buono sconto. 

Anche in questo caso, gli utenti hanno identificato l'origine AI dell'immagine dalle distorsioni caratteristiche della tecnologia, come il testo in basso a sinistra dell'immagine. Gli osservatori hanno poi trovato il drago in Abobe Stock Images. 

La reazione è stata brutale, con gli utenti di X che hanno umiliato il marchio e suggerito agli utenti di boicottare i loro prodotti. 

Wacom si è scusata, ma il suo tentativo di scaricare la responsabilità su una terza parte non è stato visto di buon occhio.

Lega delle Leggende

League of Legends è stato un altro marchio ad essere abbattuto dall'uso sgradevole di arte generata dall'IA. 

Anche se forse si tratta di un esempio più controverso o borderline, ci sono certamente prove di IA, come quelle osservate in alcuni componenti e parti del corpo dalla forma goffa. 

Una resa dei conti per le aziende di AI?

2024 ha visto una continuazione di cause legali, con gli autori Nicholas Basbanes e Nicholas Gage Presentazione di un reclamo che affermano che OpenAI e Microsoft hanno sfruttato illegalmente le loro opere scritte, l'ultimo da quando il Dicembre causa del New York Times

La causa intentata dal NYT, in particolare, potrebbe avere conseguenze monumentali per il settore dell'IA. 

Alex Connock, senior fellow della Saïd Business School dell'Università di Oxford, ha sottolineato il potenziale impatto, affermando: "Se il Times dovesse vincere la causa, potrebbe essere catastrofico per l'intero settore dell'IA". 

Ha poi approfondito le implicazioni, osservando che "una perdita del principio secondo cui il fair dealing potrebbe consentire l'apprendimento da materiali di terzi sarebbe un duro colpo per l'intero settore".

Il dottor Gary Marcus, coinvolto nello studio Midjourney dell'IEEE, ha anche definito il 2024 "l'anno della causa per l'IA" e ci si chiede se questo, unito alla regolamentazione e alla potenziale carenza di hardware, possa segnare un "inverno dell'IA", in cui il fervore del settore per lo sviluppo si raffredda.


Connock ha anche ipotizzato le ripercussioni più ampie di questo diluvio di cause legali, spiegando: "Se OpenAI dovesse perdere la causa, si aprirebbe l'opportunità per tutti gli altri creatori di contenuti che ritengono che i loro contenuti siano stati crawlati (che sono fondamentalmente tutti) e produrrebbe danni su scala industriale".

Connock teorizza: "Ciò che accadrà quasi inevitabilmente è che il NY Times si accontenterà, avendo ottenuto un accordo di monetizzazione migliore per l'uso dei suoi contenuti".

La scoperta di eventuali falle nell'armatura dell'industria dell'IA sarebbe enorme, sia per le grandi aziende come il NYT che per i creatori indipendenti. 

Come ha dichiarato James Grimmelmann, professore di diritto digitale e dell'informazione alla Cornell, "i proprietari dei diritti d'autore si sono messi in fila per colpire l'IA generativa come una gigantesca pignatta fatta con le loro opere. Il 2024 sarà probabilmente l'anno in cui scopriremo se c'è del denaro all'interno".

Quanto è forte la difesa del settore? Finora, gli sviluppatori di IA si sono aggrappati alle loro argomentazioni di "fair use" e si sono protetti dal fatto che la maggior parte dei dataset popolari sono stati creati da entità diverse da loro, il che oscura la loro colpevolezza.

Le aziende tecnologiche sono abili nel contrastare le responsabilità legali che ostacolano la ricerca e lo sviluppo. E non dimentichiamo che l'IA offre opportunità ai governi che cercano "efficienza" e altri vantaggi, il che attenua la loro resistenza.

Il governo britannico, ad esempio, ha persino studiato un'eccezione al diritto d'autore per le aziende di IA, ma ha fatto marcia indietro dopo un'enorme resistenza e una commissione parlamentare.

In termini di strategia, in una discussione con il Los Angeles Times, William Fitzgerald, partner della Worker Agency ed ex membro del team di Google per le politiche pubbliche, ha detto che la big tech avrebbe avviare una forte campagna di lobbying, magari sul modello delle tattiche precedentemente utilizzate da giganti tecnologici come Google.

Ciò comporterebbe una combinazione di difesa legale, campagne di pubbliche relazioni e sforzi di lobbying, tattiche che sono state particolarmente visibili in passato in casi di alto profilo come la battaglia sullo Stop Online Piracy Act (SOPA) e la controversia su Google Books.

Fitzgerald osserva che OpenAI sembra seguire un percorso simile a quello di Google, non solo nell'approccio alla gestione delle denunce di copyright, ma anche nelle pratiche di assunzione.

E sottolinea: "Sembra che OpenAI stia replicando il manuale di lobbying di Google. Hanno assunto ex sostenitori di Google per applicare lo stesso manuale che ha avuto tanto successo per Google per decenni".

L'analisi di Fitzgerald implica che l'industria dell'IA, come altri settori tecnologici prima di lei, potrebbe fare affidamento su potenti azioni di lobbying e manovre strategiche di politica pubblica per plasmare il panorama legale a proprio favore.

È impossibile prevedere come andrà a finire. Ma si può essere certi che le grandi aziende tecnologiche sono pronte a lottare fino alla fine. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni