OpenAI ha chiesto a un giudice di respingere la causa intentata dal New York Times contro Microsoft e OpenAI, accusando il giornale di aver "hackerato" i loro prodotti.
Il New York Times è accusato di aver simulato una violazione del copyright attraverso un processo esaustivo e manipolativo che ha coinvolto "decine di migliaia di tentativi" e "suggerimenti ingannevoli che violano palesemente i termini d'uso di OpenAI".
Il documento del tribunale, scritto con forza, si apre così: "Le accuse contenute nella denuncia del Times non soddisfano i suoi famosi e rigorosi standard giornalistici. La verità, che emergerà nel corso di questa causa, è che il Times ha pagato qualcuno per hackerare i prodotti di OpenAI".
Il New York Times è richiesta di un ampio risarcimento danni sia di Microsoft che di OpenAI.
Mentre c'è un una pila sempre più grande di cause legali Questo caso, che coinvolge aziende di IA di tutti i settori dell'industria creativa, è destinato a diventare una pietra miliare. Potrebbe ridisegnare il panorama dello sviluppo dell'IA e delle leggi sul copyright.
Tuttavia, si può essere certi che Big Tech si batterà con le unghie e con i denti. "Le persone normali non usano i prodotti di OpenAI in questo modo", ha affermato OpenAI nel suo recente documento.
Il termine "prompt engineering" o "red-teaming", come menzionato da OpenAI nella sua documentazione legale, agisce come uno stress test volto a scoprire le vulnerabilità dei sistemi di intelligenza artificiale.
Alimentare i sistemi di intelligenza artificiale generativa con suggerimenti specificamente progettati li costringe a negare i loro confini e a comportamento irregolare.
Ciò ha portato a una serie di risposte strane e potenzialmente pericolose, come l'offerta di aiutare a fabbricare bombe o incoraggiare il suicidio e altre attività dannose.
Presentazione di OpenAI, disponibile quiOpenAI e gli altri imputati in queste cause avranno la meglio perché nessuno, nemmeno il New York Times, può monopolizzare i fatti o le regole del linguaggio".
Si legge inoltre: "Contrariamente a quanto sostenuto nel reclamo, tuttavia, ChatGPT non è in alcun modo un sostituto di un abbonamento al New York Times. Nel mondo reale, le persone non usano ChatGPT o qualsiasi altro prodotto OpenAI per questo scopo. Né potrebbero farlo".
Si tratta di un aspetto cruciale, in quanto il NYT deve convincere il giudice dei danni economici derivanti dalla violazione di OpenAI.
Copyright: fair use o scappatoia?
È un segreto aperto che i modelli di IA generativa vengono addestrati prontamente sui dati del copyright, alcuni in misura maggiore di altri.
OpenAI lo ha ammesso in un presentazione preventiva alla Camera dei Lord del Regno UnitoPoiché oggi il diritto d'autore copre praticamente ogni tipo di espressione umana - compresi i post dei blog, le fotografie, i post dei forum, gli spezzoni di codice software e i documenti governativi - sarebbe impossibile addestrare i principali modelli di intelligenza artificiale di oggi senza utilizzare materiali protetti da copyright".
OpenAI ha proseguito con quello che alcuni hanno considerato un lapsus freudiano: "Limitare i dati di addestramento ai libri di dominio pubblico e ai disegni creati più di un secolo fa potrebbe produrre un esperimento interessante, ma non fornirebbe sistemi di IA in grado di soddisfare le esigenze dei cittadini di oggi".
Non c'è dubbio che le aziende di IA intendano utilizzare dati protetti da copyright. Ma questo non significa che la legge sul copyright, un costrutto precedente all'IA, non sia dalla loro parte.
Durante una discussione a Davos, in Svizzera, l'amministratore delegato di OpenAI, Sam Altman, ha espresso il suo stupore per la causa intentata dal NYT, chiarendo un malinteso comune sulla necessità dei dati del giornale per l'addestramento dei modelli di OpenAI.
"In realtà non abbiamo bisogno di allenarci sui loro dati", ha dichiarato Altman, sottolineando l'impatto trascurabile dell'esclusione dei dati di un singolo editore sulle prestazioni di ChatGPT.
Ciononostante, OpenAI riconosce il potenziale effetto cumulativo del ritiro dei contenuti da parte di più editori e si sta assicurando accordi per l'utilizzo dei contenuti delle case editrici ai fini dell'addestramento dell'IA.
A studio recente del Reuters Institute for the Study of Journalism dell'Università di Oxford ha rilevato che circa 48% dei principali siti di notizie stanno bloccando i web crawler di OpenAI, il che potrebbe limitare fortemente l'accesso dell'azienda a dati freschi e di alta qualità.
OpenAI e altre aziende tecnologiche dovranno probabilmente iniziare a pagare per i dati, ma non saranno penalizzate per i loro exploit.