OpenAI: creare strumenti di IA senza utilizzare materiale protetto da copyright è "impossibile"

8 gennaio 2024

Regolamento OpenAI

In una dichiarazione di prova scritta alla Camera dei Lord del Regno Unito, OpenAI ha affermato che creare strumenti di IA senza utilizzare materiale protetto da copyright è "impossibile".

Ciò avviene nel contesto di un intenso dibattito sull'interazione del copyright con l'IA, con autori, scrittori e media come il New York Times che hanno intentato cause contro OpenAI, Microsoft, Stability AI, Anthropic, Google e Midjourney, solo per citarne alcuni. 

Modelli linguistici di grandi dimensioni (LLM) come ChatGPT e generatori di immagini come Midjourney, recentemente balzato agli onori della cronaca per aver creato un database di 16.000 artisti per l'addestramento dei modelli, si affidano ad ampi dati protetti da copyright. 

In effetti, i dati sul copyright costituiscono la base del materiale di addestramento dell'IA perché sono abbondanti, coprono un ampio spettro della creatività umana e sono facilmente reperibili su Internet. 

Le aziende produttrici di IA sostengono che questi dati sono un "uso corretto" per l'addestramento dei loro modelli, ma molti altri non sono d'accordo.  

In risposta alla commissione selezionata per le comunicazioni e il digitale della Camera dei Lord, OpenAI ha recentemente sottolineato la necessità di materiale protetto da copyright per i corsi di formazione LLM come il GPT-4.

OpenAI ha dichiarato: "Poiché il diritto d'autore copre oggi praticamente ogni tipo di espressione umana - compresi i post dei blog, le fotografie, i post dei forum, gli spezzoni di codice software e i documenti governativi - sarebbe impossibile addestrare i principali modelli di IA di oggi senza utilizzare materiali protetti da copyright".

L'azienda ha inoltre sostenuto che limitare i materiali di formazione a fonti di pubblico dominio avrebbe portato a sistemi di intelligenza artificiale scadenti. 

"Limitare i dati di addestramento ai libri di dominio pubblico e ai disegni creati più di un secolo fa potrebbe produrre un esperimento interessante, ma non fornirebbe sistemi di IA in grado di soddisfare le esigenze dei cittadini di oggi", ha aggiunto OpenAI.

È possibile leggere l'intero presentazione di prove scritte qui, che tocca anche la traiettoria futura dell'IA, i rischi catastrofici, per i quali OpenAI pubblicizza il proprio Frontier Model Forum e il team Preparedness, e la regolamentazione. 

Il pubblico reagisce

Le reazioni a queste affermazioni non sono state esattamente simpatiche.

Il Dr. Gary Marcus, ad esempio, una voce di spicco del settore, ha affermato che questo essenzialmente auto-etichetta i modelli di IA come un dispositivo di monetizzazione per i lavori rubati sotto copyright.

In effetti, sembra che questo sia quasi un lapsus freudiano da parte di OpenAI, che ammette che il suo modello di business è impraticabile senza manipolare la legge.

C'è un senso di ingiustizia palpabile nel fatto che così pochi ai vertici della Silicon Valley beneficiano del lavoro di tanti.

La dichiarazione di OpenAI afferma inoltre di comprendere "le esigenze" dei "cittadini" di oggi, mettendo in luce un crescente scollamento tra la visione che le big tech hanno dell'IA generativa come progetto umanitario, persino filantropico, e il timore delle persone che essa rubi i loro dati e sostituisca le loro competenze.

Il Dr. Marcus ha commentato: "[Le aziende di AI]...dovrebbero tornare alla tavola da disegno e capire come costruire un software che non abbia problemi di plagio, invece di derubare artisti, scrittori e altri fornitori di contenuti". 

Le cause legali si moltiplicano

Questo arriva anche in mezzo a diverse cause legali contro OpenAI, con autori importanti come John Grisham, Jodi Picoult e George RR Martin. citando in giudizio l'azienda nel mese di settembre l'anno scorso per un presunto "furto sistematico su scala di massa". 

Due stimati giornalisti, Nicholas Gage e Nicholas Basbanes, hanno presentato l'ennesima denuncia contro OpenAI e Microsoft la scorsa settimana, che si aggiunge al crescente numero di sfide legali affrontate dalle aziende di IA sia nel campo della scrittura che in quello delle arti visive.

OpenAI ha anche risposto alla causa del New York Times, affermando di ritenerla "priva di fondamento" (vedi sotto).

Questi sviluppi sollevano preoccupazioni sulle potenziali responsabilità legali che le aziende di IA potrebbero affrontare quest'anno e in futuro. Come si adatteranno? La crescente resistenza del pubblico avrà un impatto sulla traiettoria del settore?

E come si possono addestrare eticamente modelli di IA generativa su larga scala? L'etica è compatibile con l'attuale incarnazione della tecnologia? 

Finora le difese delle aziende di IA stanno reggendo, ma la frattura tra l'idea di "fair use" degli sviluppatori di IA e il modo in cui gli altri la percepiscono si sta allargando. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni