Microsoft har publicerat sitt uppdaterade serviceavtal som nu innehåller fem regler som rör artificiell intelligens.
Den Avtal om Microsoft-tjänster reglerar varje interaktion som du har med någon av dess "konsumentprodukter och tjänster online".
Införandet av AI-reglerna ger en inblick i hur Microsoft planerar att använda dina data, men belyser också de farhågor som företaget har kring AI.
De fem nya reglerna för AI Services anger följande:
- Omvänd ingenjörskonst. Du får inte använda AI-tjänsterna för att upptäcka några underliggande komponenter i modellerna, algoritmerna och systemen. Du får t.ex. inte försöka fastställa och ta bort modellernas vikter.
- Extrahering av data. Om det inte uttryckligen tillåts får du inte använda metoder för webbskrapning, webbskörd eller webbdatautvinning för att extrahera data från AI-tjänsterna.
- Begränsningar för användning av data från AI-tjänsterna. Du får inte använda AI-tjänsterna, eller data från AI-tjänsterna, för att skapa, utbilda eller förbättra (direkt eller indirekt) någon annan AI-tjänst.
- Användning av ditt innehåll. Som en del av tillhandahållandet av AI-tjänsterna kommer Microsoft att behandla och lagra dina inmatningar till tjänsten samt utmatningar från tjänsten, i syfte att övervaka och förhindra missbruk eller skadlig användning eller utmatning av tjänsten.
- Anspråk från tredje part. Du är ensam ansvarig för att svara på eventuella krav från tredje part avseende din användning av AI-tjänsterna i enlighet med gällande lagar (inklusive, men inte begränsat till, upphovsrättsintrång eller andra krav som rör innehåll som matas ut under din användning av AI-tjänsterna).
En snabb titt på de tre första reglerna i stora drag visar att Microsoft inte vill att du använder AI för att göra omvända konstruktioner av några av företagets AI-verktyg eller modeller.
Det är intressant att den första regeln använder exemplet med att bestämma vikterna för Microsofts modeller.
Vikter är de parametrar som en maskininlärningsmodell lär sig under utbildningen för att göra förutsägelser baserade på indata.
Microsoft lägger mycket dataresurser på att utbilda sina modeller och vill inte att någon ska ha tillgång till slutresultatets skruvar och muttrar.
Den fjärde regeln säger att Microsoft kommer att hålla ett öga på hur du använder dess AI-produkter för att förhindra "missbruk eller skadlig användning eller produktion" utan att definiera vad de anser vara missbruk eller skadlig.
Intressant nog är den regeln inte särskilt detaljerad och klargör inte hur den använder dina uppgifter, t.ex. Zoom har nyligen försökt att göra.
Den femte regeln om tredjepartsanspråk säger i princip att om du använder Microsofts AI för att skapa innehåll som bryter mot upphovsrättslagen så får du klara dig själv. Vilket verkar rättvist nog.
Oavsett om du använder OneDrive för att lagra filer eller Xbox för att spela ditt favoritspel, säger du i huvudsak att du är ok med dessa nya villkor.
Microsoft sällar sig till ett antal företag som använder AI, till exempel Zoom och Googlesom försöker hålla jämna steg med förändrade lagar och användarnas oro över hur deras data används.
Medan utgivare av AI-verktyg försöker skydda sig juridiskt, försöker innehållsskapare som New York Times ändrar sina villkor att blockera användningen av deras data för att träna AI-modeller. New York Times säger nu uttryckligen att icke-kommersiell användning av deras innehåll inte omfattar träning av AI-modeller.
Räkna med en hel del juridiskt fotarbete och stämningar när advokaterna på båda sidor försöker förstå hur vi kan använda AI och ändå hålla alla nöjda.