Microsoft ha pubblicato il contratto di servizi aggiornato che ora include cinque regole relative all'intelligenza artificiale.
Il Contratto di servizi Microsoft regola ogni interazione con i suoi "prodotti e servizi online per i consumatori".
L'inclusione delle regole dell'IA dà un'idea di come Microsoft intenda utilizzare i dati degli utenti, ma evidenzia anche le preoccupazioni che l'azienda nutre nei confronti dell'IA.
Le cinque nuove norme sui servizi di AI stabiliscono che:
- Ingegneria inversa. L'utente non può utilizzare i servizi di IA per scoprire i componenti sottostanti dei modelli, degli algoritmi e dei sistemi. Ad esempio, non si può cercare di determinare e rimuovere i pesi dei modelli.
- Estrazione di dati. Salvo esplicita autorizzazione, l'utente non può utilizzare metodi di web scraping, web harvesting o web data extraction per estrarre dati dai servizi AI.
- Limiti all'uso dei dati dei Servizi di IA. L'utente non può utilizzare i servizi AI, o i dati provenienti dai servizi AI, per creare, addestrare o migliorare (direttamente o indirettamente) qualsiasi altro servizio AI.
- Utilizzo dei Contenuti dell'Utente. Nell'ambito della fornitura dei servizi di intelligenza artificiale, Microsoft elaborerà e memorizzerà i dati immessi dall'utente nel servizio e quelli prodotti dal servizio, al fine di monitorare e prevenire usi o risultati abusivi o dannosi del servizio.
- Reclami di terzi. L'utente è l'unico responsabile della risposta a qualsiasi reclamo di terzi relativo all'utilizzo dei servizi AI da parte dell'utente, in conformità alle leggi vigenti (ivi compresi, a titolo esemplificativo e non esaustivo, i reclami per violazione del copyright o altri reclami relativi ai contenuti prodotti durante l'utilizzo dei servizi AI da parte dell'utente).
Una rapida occhiata alle prime tre regole in termini generali mostra che Microsoft non vuole che l'utente utilizzi l'IA per effettuare il reverse engineering dei suoi strumenti o modelli di IA.
È interessante che la prima regola utilizzi l'esempio della determinazione dei pesi dei modelli di Microsoft.
I pesi sono i parametri che un modello di apprendimento automatico apprende durante l'addestramento per fare previsioni basate sui dati di input.
Microsoft spende molte risorse informatiche per formare i suoi modelli e non vuole che nessuno abbia accesso ai dettagli del risultato finale.
La quarta regola dice che Microsoft terrà d'occhio il modo in cui l'utente utilizza i suoi prodotti di intelligenza artificiale per prevenire "usi o risultati abusivi o dannosi", senza definire cosa considera abusivo o dannoso.
È interessante notare che questa regola è poco dettagliata e non chiarisce l'utilizzo dei dati da parte dell'azienda, come ad esempio Zoom ha recentemente tentato di fare.
La quinta regola sulle rivendicazioni di terze parti dice sostanzialmente che se si utilizza l'intelligenza artificiale di Microsoft per creare contenuti che violano la legge sul copyright, si è da soli. Il che sembra abbastanza corretto.
Se utilizzate OneDrive per archiviare file o Xbox per giocare al vostro gioco preferito, state essenzialmente dicendo che siete d'accordo con questi nuovi termini.
Microsoft si unisce a una serie di aziende che utilizzano l'IA, come Zoom e Googleche cercano di tenere il passo con le leggi in evoluzione e con le preoccupazioni degli utenti su come vengono utilizzati i loro dati.
Mentre gli editori di strumenti di intelligenza artificiale cercano di coprirsi legalmente, i creatori di contenuti come il Il New York Times cambia le sue condizioni per bloccare l'uso dei loro dati per addestrare modelli di intelligenza artificiale. Il New York Times ora dice espressamente che l'uso non commerciale dei suoi contenuti non include l'addestramento di modelli di intelligenza artificiale.
Aspettatevi un po' di lavoro legale e di cause, mentre gli avvocati di entrambe le parti cercheranno di capire come usare l'IA e mantenere tutti felici.