Microsoft pagherà le spese legali per la potenziale violazione del copyright di Copilot

8 settembre 2023

AI Microsoft

Microsoft ha promesso di assumersi l'onere legale per qualsiasi violazione del copyright derivante da contenuti generati dall'intelligenza artificiale attraverso i suoi strumenti, compreso Copilot.

Copilot è uno strumento di intelligenza artificiale che si integra direttamente nella famiglia di software Microsoft 365, che comprende Word, PowerPoint ed Excel.

Non è ancora disponibile al pubblico, ma consentirà agli utenti di creare e riassumere automaticamente testi, creare presentazioni, creare grafici, analizzare dati e altro ancora.

Secondo Hossein Nowbar, consigliere generale di Microsoft per gli affari legali aziendali, Microsoft si assumerà tutti i potenziali rischi legali per i clienti commerciali che utilizzano i suoi prodotti di intelligenza artificiale, a condizione che rispettino le "protezioni e i filtri di contenuto" integrati.

In altre parole, se Copilot produce contenuti che violano i diritti d'autore di altri e questi ultimi fanno causa, Microsoft pagherà.

L'annuncio è stato dato in dettaglio tramite un post sul blog ufficiale di MicrosoftIn particolare, se una terza parte cita in giudizio un cliente commerciale per violazione del diritto d'autore per aver utilizzato i Copilot di Microsoft o l'output da essi generato, difenderemo il cliente e pagheremo l'importo di eventuali sentenze o patteggiamenti sfavorevoli risultanti dalla causa, a condizione che il cliente abbia utilizzato le protezioni e i filtri di contenuto che abbiamo integrato nei nostri prodotti".

Microsoft mira a mitigare i timori sul potenziale dell'IA generativa di produrre involontariamente materiale protetto da copyright.

Ilanah Fhima, docente di diritto della proprietà intellettuale presso l'University College di Londra, osserva: "Questa mossa apre il mercato" e "rende il software più utilizzabile, in quanto elimina uno degli ostacoli per le aziende che sanno di avere questa rassicurazione".

Questa è stata una mossa inaspettata da parte di Microsoft: giurare di raccogliere i pezzi delle battaglie legali dei clienti è qualcosa che ha senso solo nell'era dell'intelligenza artificiale. 

Inoltre, la clausola che impone ai clienti di utilizzare i "guardrail e i filtri per i contenuti" dei prodotti fornisce a Microsoft un ulteriore livello di protezione contro gli abusi.

Preoccupazioni etiche e reazioni precedenti

La mossa di Microsoft solleva dubbi sul fatto che l'azienda intenda promuovere la fiducia del pubblico nei suoi prodotti o semplicemente favorirne l'adozione. 

Pagare le spese legali è una cosa, ma non si tratta di stabilire se i dati di addestramento di OpenAI includono contenuti protetti da copyright.

All'inizio dell'anno, Abobe Firefly ha eliminato i potenziali problemi di copyright dichiarando che il modello è stato addestrato solo sulle foto di Adobe Stock e non su dati estrapolati da Internet.

L'azienda ha preso un impegno identicodi pagare le spese legali per qualsiasi potenziale problema legale derivante dai risultati di Firefly, ma si tratta di un impegno relativamente facile da prendere, visto che i dati di addestramento sono di loro proprietà.

Microsoft non può offrire lo stesso livello di trasparenza, nonostante offra le stesse garanzie legali.

La verità è che non sarebbe possibile rivelare la natura dei dati di addestramento di Copilot, poiché è costruito con i modelli GPT di OpenAI, che quasi certamente sono stati addestrati su almeno un po' di materiale protetto da copyright ottenuto attraverso pratiche discutibili.

Questo non vuol dire che OpenAI abbia convalidato i diritti d'autore dei creatori, ma qualcuno lo ha fatto e OpenAI lo avrebbe saputo.

Il post sul blog di Microsoft esprime il valore del copyright e della proprietà, affermando: "È fondamentale che gli autori mantengano il controllo dei loro diritti ai sensi della legge sul copyright e guadagnino un sano ritorno sulle loro creazioni... e dovremmo garantire che i contenuti necessari per addestrare e mettere a punto i modelli di intelligenza artificiale non siano bloccati nelle mani di una o poche aziende in modi che soffocherebbero la concorrenza e l'innovazione".

Sebbene Copilot sia costruito su ChatGPT, il loro post sul blog ci porta a credere che abbiano dotato di filtri che proteggono rigorosamente le uscite dalla violazione dei diritti d'autore.

In base alla formulazione di Microsoft, questi guardrail specifici potrebbero essere esclusivi di Copilot e di consistono in "classificatori, metaprompt, filtraggio dei contenuti, monitoraggio operativo e rilevamento degli abusi, compresi quelli che potenzialmente violano i contenuti di terzi".

In particolare, Microsoft afferma anche che i filtri "riducono la probabilità che Copilot restituisca contenuti in violazione".

L'espressione "ridurre la probabilità" implica che c'è ancora una *possibilità* che gli strumenti violino i diritti d'autore nonostante i filtri.

A una serie di cause legali sostengono che gli strumenti di intelligenza artificiale producono contenuti troppo simili a materiale protetto da copyright, tra cui alcune sezioni testuali di libri o riassunti che non si spiegherebbero se ChatGPT non avesse libero accesso ai libri stessi.

OpenAI ha recentemente liquidato questi casi comesenza fondamento," anche se i procedimenti giudiziari sono ancora in corso.

Mancanza di chiarezza

Al momento non è chiaro dove finiscano i modelli GPT di OpenAI, dove inizi Copilot e quale sia la portata della messa a punto di Microsoft.

In un altro postMicrosoft ha dichiarato: "Copilot non si limita a collegare ChatGPT a Microsoft 365; combina la potenza dei modelli linguistici di grandi dimensioni (LLM) con i dati presenti nel Microsoft Graph (tra cui calendario, e-mail, chat, documenti, riunioni e altro ancora) e con le app di Microsoft 365 per trasformare le vostre parole nello strumento di produttività più potente del pianeta".

Microsoft ha pubblicato un video che spiega come funzionerà Copilot, ma non entra nei dettagli.

Per ora, possiamo presumere che i nuovi filtri e guardrail di Microsoft filtrino in modo aggressivo il materiale potenzialmente protetto da copyright, forse in misura maggiore rispetto a ChatGPT. Microsoft potrebbe aver sanificato Copilot per eliminare l'uso di materiale potenzialmente protetto da copyright.

Implicazioni più ampie per il settore

L'audace mossa di Microsoft di accollarsi i rischi legali della violazione del copyright significa molto di più di una semplice decisione aziendale.

Come le aziende ben sanno, siamo nell'era del Far West della regolamentazione dell'IA. Questo potrebbe essere etichettato come un rischio calcolato, ma ciò implica anche che si tratta di una scommessa.

Poiché le leggi e i precedenti in materia di IA e copyright sono ancora in fase di formazione, l'azienda potrebbe non trovarsi ancora di fronte a spese legali esorbitanti. 

Dinamiche giuridiche globali

Quando Abobe ha fatto la stessa promessa, il consulente generale dell'azienda, Dana Rao, ha dichiarato: "La legge non è definita e non posso dirvi in che direzione andranno i casi di copyright, ma posso garantirvi, essendo nato negli Stati Uniti d'America, che ci saranno molte cause legali, quindi l'assicurazione è piuttosto attraente [per i nostri clienti aziendali], e non è un vero e proprio espediente".

Va bene discutere del diritto d'autore dell'IA come incorporato nel quadro giuridico degli Stati Uniti, ma in quanto multinazionale, la politica di Microsoft potrebbe creare un precedente che deve essere affrontato in più giurisdizioni legali, ognuna con le proprie leggi sul diritto d'autore e i propri atteggiamenti nei confronti dell'IA.

Questo potrebbe costringere Microsoft a un ruolo che potrebbe non desiderare: quello di arbitro globale che stabilisce lo standard de facto per la gestione delle questioni relative al copyright dell'IA in tutto il mondo.

Supponiamo che Copilot produca un testo discutibile che assomiglia a un'opera protetta da copyright di qualcuno. - Le interpretazioni sul fatto che l'output violi in modo completo la legge sul copyright potrebbero variare da giurisdizione a giurisdizione.

Ad esempio, la legge britannica sul diritto d'autore differisce in vari modi da quella statunitense. Mentre la legge statunitense sul diritto d'autore si concentra sul "fair use", che è uno standard piuttosto flessibile, il Regno Unito si basa su un concetto chiamato "fair dealing", che è più limitato e deve rientrare in categorie prescritte come la ricerca, la recensione e la cronaca.

Negli Stati Uniti, un'entità può rivendicare un "uso trasformativo", sostenendo che una nuova creazione aggiunge qualcosa di nuovo o modifica sostanzialmente l'opera originale in modo tale da esentarla dalla violazione del copyright.

Nel Regno Unito, tuttavia, la mancanza di una clausola di "uso trasformativo" rende più difficile la gestione dei diritti d'autore per i contenuti generati dall'intelligenza artificiale, aumentando così potenzialmente il rischio legale di Microsoft quando offre i suoi prodotti di intelligenza artificiale a clienti con sede nel Regno Unito.

Inoltre, l'approccio del Regno Unito ai diritti morali - che tutelano il rapporto personale tra un autore e la sua opera - è più solido rispetto agli Stati Uniti.

Se un'IA dovesse replicare in modo sostanziale un'opera protetta da copyright, la maggiore protezione dei diritti morali nel Regno Unito potrebbe aggiungere un ulteriore livello di complessità al calcolo legale di Microsoft.

Pertanto, la politica di Microsoft potrebbe avere implicazioni di vasta portata nel definire uno standard globale de facto.

Questo standard dovrebbe essere sufficientemente flessibile per tenere conto delle differenze tra i vari contesti globali, ma allo stesso tempo abbastanza rigoroso da offrire protezione e garanzie significative ai clienti.

Presumibilmente, l'impegno sarà sottoposto a un certo livello di sottoscrizione legale, che potrebbe chiarire le modalità di applicazione ai clienti globali se, effettivamente, ha qualche effetto al di fuori degli Stati Uniti.

Abbassare le barriere per i clienti, alzarle per i concorrenti

Come Abobe, Microsoft sta riducendo le barriere legali all'adozione dell'intelligenza artificiale nelle aziende, impegnandosi a sostenere legalmente i propri clienti.

Tuttavia, questa mossa potrebbe avere ripercussioni sull'ecosistema delle start-up. Le start-up, che spesso guidano l'innovazione ma non hanno la forza finanziaria per assumersi ampie responsabilità, potrebbero trovare sempre più difficile competere in un mercato in cui i pesi massimi offrono una "assicurazione legale" come parte del pacchetto.

Si teme già che le prossime normative sull'IA saranno estremamente costose da rispettare per i piccoli operatori del settore.

Ciò potrebbe modificare il panorama dello sviluppo dell'IA, consolidando il potere nelle mani di coloro che possono permettersi di correre rischi legali.

È questo l'aspetto che vogliamo dare all'industria dell'IA? Un'industria in cui le aziende commercializzano i loro prodotti impegnandosi a pagare le spese legali?

Dal punto di vista etico, questa mossa si muove in acque torbide. Sebbene Microsoft affermi di tenere in grande considerazione i diritti d'autore e si prefigga di proteggerli attraverso queste barriere, sta operando in uno spazio in cui la strada "giusta" è ancora oggetto di dibattito.

Inoltre, assumendosi l'onere legale, Microsoft potrebbe essere vista come un'elusione della necessità di considerazioni etiche più rigorose nello sviluppo e nell'uso dell'IA.

Invece di investire in una tecnologia che rispetta intrinsecamente i diritti di proprietà intellettuale, l'azienda sceglie di "ripulire" ogni potenziale pasticcio a posteriori.

Questa potrebbe essere vista come una forma di baratto etico, in cui Microsoft sta scambiando la promessa di un supporto legale per una maggiore adozione dei suoi servizi, forse a spese della promozione di pratiche di IA più etiche.

Altre aziende seguiranno l'esempio? Probabilmente sì.

Ancora una volta, questo scenario ha senso solo nell'era dell'intelligenza artificiale.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni