Il 2023 è stata l'era del Far West dello sviluppo dell'IA? Nel 2024, le cause legali daranno un giro di vite alle forme di abuso, o sarà sempre la stessa storia?
Il 2023 sarà ricordato come l'anno in cui l'IA generativa ha raggiunto l'ubiquità, ma il 2024 potrebbe essere caratterizzato da un diverso tipo di cambiamento guidato da sfide legate alla legge sul copyright.
La crescita vertiginosa dell'IA generativa, con aziende come OpenAI di Microsoft, Meta Platforms e Midjourney in prima linea, ha scatenato una serie di controversie sul copyright.
I creatori, in particolare gli scrittori e gli artisti, sostengono che il successo dell'IA sia dovuto all'uso non autorizzato delle loro opere, con conseguenti battaglie legali di alto profilo.
Queste controversie ruotano principalmente intorno al web scraping, che estrae grandi quantità di dati da Internet per addestrare i sistemi di intelligenza artificiale, una pratica ora sottoposta a un intenso esame legale.
Se pubblicare un lavoro online significa renderlo in gran parte di dominio pubblico, questo comporta anche l'aspettativa che venga utilizzato per addestrare i sistemi di intelligenza artificiale?
Alcuni querelanti di rilievo, autori come John Grisham, George R.R. MartinSarah Silverman e Mike Huckabee e altri detentori di copyright, tra cui Getty Images. e il New York TimesI membri del gruppo chiedono danni monetari e ordini del tribunale per fermare l'uso non autorizzato delle loro opere.
Finora i tribunali hanno mostrato un certo scetticismo nei confronti delle denunce di violazione del diritto d'autore legate all'intelligenza artificiale. un caso archiviato ma successivamente ripresentata con l'aggiunta di altri artisti alla denuncia.
Sono in corso anche numerosi dibattiti legali separati. La Corte Suprema del Regno Unito ha recentemente stabilito che l'IA non può essere registrato come inventore per i brevettimentre un tribunale cinese ha affermato che l'arte generata dall'IA era copiabile.
Nel frattempo, anche gli stessi avvocati sono stati coinvolti in casi legali, con almeno due casi di falsi riferimenti legali generati dall'intelligenza artificiale utilizzati in casi legali reali, il più recente dei quali ha coinvolto L'ex avvocato di Donald Trump, Michael Cohen.
Le difese tengono ampiamente
Le aziende tecnologiche temono che queste cause possano costituire un ostacolo significativo allo sviluppo dell'IA. Esse sostengono che i loro metodi di addestramento dell'IA rientrano nel "fair use" di materiale protetto da copyright.
Come ha spiegato Meta in una dichiarazione all'U.S. Copyright Office, "proprio come un bambino impara il linguaggio (parole, grammatica, sintassi, struttura delle frasi) ascoltando i discorsi di tutti i giorni, le storie della buonanotte, le canzoni alla radio e così via, un modello 'impara' il linguaggio essendo esposto - attraverso l'addestramento - a enormi quantità di testo".
Questa analogia mette in evidenza la posizione del settore, secondo cui l'addestramento dell'IA imita i processi di apprendimento umano e dovrebbe essere trattato come tale ai sensi della legge sul copyright. In sostanza, le aziende produttrici di IA sostengono che è un po' come usare il lavoro di altre persone per creare e vendere un libro di testo o un'enciclopedia.
Altri non ne sono convinti e suggeriscono che le aziende di IA esistere in un ambiente a rischio.
Andreessen Horowitz, una società di venture capital della Silicon Valley, ha espresso grave preoccupazione per il potenziale impatto di queste cause sullo sviluppo dell'IA.
Hanno dichiarato: "Imporre ai creatori di modelli di IA il costo di una responsabilità reale o potenziale in materia di diritto d'autore ne ucciderà o ostacolerà in modo significativo lo sviluppo".
I titolari dei diritti d'autore contestano anche il successo finanziario di programmi di IA come ChatGPT di OpenAI, suggerendo che le aziende tecnologiche devono permettersi i diritti di licenza e non possono continuare a giustificare la loro violazione della proprietà intellettuale.
La Authors Guild ha recentemente dichiarato: "La concessione in licenza dei materiali protetti da copyright per la formazione dei loro LLM può essere costosa - e in effetti dovrebbe esserlo, vista l'enorme parte del valore di qualsiasi LLM che è attribuibile ai testi creati professionalmente".
Con lo svolgersi di queste battaglie legali, l'industria dell'IA si trova a un bivio, dove il futuro dell'innovazione dell'IA è strettamente legato all'evoluzione delle interpretazioni della legge sul copyright.
Le decisioni prese in questi casi potrebbero influenzare in modo significativo la traiettoria dello sviluppo dell'IA quest'anno. La cui portata è destinata a diventare più chiara, o comunque un po' più chiara.