OpenAI ha risposto pubblicamente alla causa per violazione del copyright avviata dal New York Times a dicembre.
Non è detto che la dichiarazione si traduca in un ritiro di la causa ma dà un'idea delle linee di argomentazione che i legali dell'azienda potrebbero seguire.
Ecco una versione TLDR dei quattro punti principali della dichiarazione:
1. OpenAI dichiara di voler "sostenere un ecosistema giornalistico sano, essere un buon partner e creare opportunità reciprocamente vantaggiose", affermando che i suoi prodotti possono aiutare giornalisti e redattori a svolgere meglio il loro lavoro e a raggiungere il pubblico a cui sono destinati in modi nuovi.
A sua volta, vorrebbe utilizzare i loro dati per addestrare i propri modelli. OpenAI ha elencato diverse aziende del settore dei media, come Axel Springer, con cui ha stretto rapporti di reciproco beneficio.
2. OpenAI continua a ritenere che l'addestramento di modelli di intelligenza artificiale con dati disponibili al pubblico sia uso corretto e ha elencato i Paesi e le organizzazioni che sono d'accordo.
OpenAI ora fornisce un mezzo per l'opt-out per bloccare i bot scraper, ma non menziona un'opzione per rimuovere i dati storici di addestramento prima della funzione di opt-out.
3. Il rigurgito di parti verbatim di contenuti protetti da copyright è un "bug raro" e OpenAI sta lavorando per risolverlo. Se un contenuto del Times viene diffuso e pubblicato su più piattaforme, è destinato a essere riprodotto da ChatGPT se gli utenti cercano davvero di farlo.
OpenAI afferma di aspettarsi che gli utenti "agiscano in modo responsabile" e non facciano questo. Il contenuto del New York Times è una fetta molto piccola dei dati di addestramento di ChatGPT, quindi OpenAI dice che non sposta di molto l'ago della bilancia per quanto riguarda i dati di addestramento.
4. OpenAI sostiene che il New York Times non racconta tutta la storia. OpenAI pensava che le trattative stessero procedendo positivamente, finché non ha preso in mano una copia del Times e ha saputo dell'azione legale.
Gli esempi di contenuto rigurgitato provengono da vecchi articoli diffusi su Internet. OpenAI afferma che gli esempi di contenuto verbatim sono stati indotti e sospetta che "abbiano istruito il modello a rigurgitare o abbiano scelto gli esempi da molti tentativi".
La dichiarazione, che può essere leggi qui per interosi conclude con la speranza di OpenAI di poter ricucire il rapporto con la carta. L'alternativa non sembra buona per nessuna delle due parti.