Microsoft har publisert sin oppdaterte tjenesteavtale, som nå inneholder fem regler knyttet til kunstig intelligens.
Den Avtale om Microsoft-tjenester regulerer enhver interaksjon du har med noen av selskapets "forbrukerprodukter og -tjenester på nett".
Inkluderingen av AI-reglene gir innsikt i hvordan Microsoft planlegger å bruke dataene dine, men fremhever også bekymringene selskapet har rundt AI.
I de fem nye reglene for AI-tjenester heter det
- Omvendt konstruksjon. Du kan ikke bruke AI-tjenestene til å finne underliggende komponenter i modellene, algoritmene og systemene. Du kan for eksempel ikke prøve å bestemme og fjerne vektene til modeller.
- Utvinning av data. Med mindre det er eksplisitt tillatt, kan du ikke bruke nettskraping, netthøsting eller metoder for uthenting av nettdata for å hente ut data fra AI-tjenestene.
- Begrensninger på bruk av data fra AI-tjenestene. Du kan ikke bruke AI-tjenestene, eller data fra AI-tjenestene, til å opprette, trene eller forbedre (direkte eller indirekte) noen annen AI-tjeneste.
- Bruk av innholdet ditt. Som en del av leveringen av AI-tjenestene vil Microsoft behandle og lagre dine inndata til tjenesten samt utdata fra tjenesten, med det formål å overvåke og forhindre misbruk eller skadelig bruk eller utdata av tjenesten.
- Krav fra tredjeparter. Du er eneansvarlig for å svare på eventuelle krav fra tredjepart angående din bruk av AI-tjenestene i samsvar med gjeldende lover (inkludert, men ikke begrenset til, brudd på opphavsrett eller andre krav knyttet til innhold som er produsert under din bruk av AI-tjenestene).
En rask titt på de tre første reglene viser at Microsoft ikke ønsker at du skal bruke AI til å reversere noen av selskapets AI-verktøy eller -modeller.
Det er interessant at den første regelen bruker eksemplet med å bestemme vektene til Microsofts modeller.
Vektene er parametrene som en maskinlæringsmodell lærer seg under opplæringen for å kunne forutsi resultater basert på inndata.
Microsoft bruker mye dataressurser på å lære opp modellene sine, og ønsker ikke at noen skal ha tilgang til detaljene i sluttresultatet.
Den fjerde regelen sier at Microsoft vil holde et øye med hvordan du bruker AI-produktene for å forhindre "misbruk eller skadelig bruk eller produksjon", uten å definere hva de mener er misbruk eller skadelig.
Det er interessant å merke seg at denne regelen er lite detaljert og ikke klargjør bruken av dataene dine på samme måte som Zoom har nylig forsøkt å gjøre.
Den femte regelen om tredjepartskrav sier i utgangspunktet at hvis du bruker Microsofts AI til å lage innhold som bryter med opphavsrettsloven, er du på egen hånd. Noe som virker rimelig nok.
Enten du bruker OneDrive til å lagre filer eller Xbox til å spille favorittspillet ditt, sier du egentlig at du godtar disse nye vilkårene.
Microsoft føyer seg inn i rekken av selskaper som bruker AI, som Zoom og Google, som prøver å holde tritt med skiftende lover og bekymringer fra brukerne om hvordan dataene deres brukes.
Mens utgivere av AI-verktøy forsøker å sikre seg juridisk, vil innholdsskapere som New York Times endrer vilkårene sine for å blokkere bruken av dataene deres til å trene AI-modeller. New York Times sier nå spesifikt at ikke-kommersiell bruk av deres innhold ikke inkluderer trening av AI-modeller.
Forvent en del juridisk fotarbeid og søksmål når advokatene på begge sider prøver å forstå hvordan vi kan bruke kunstig intelligens og samtidig gjøre alle fornøyde.