Microsoft heeft zijn bijgewerkte dienstenovereenkomst gepubliceerd waarin nu vijf regels met betrekking tot kunstmatige intelligentie zijn opgenomen.
De Microsoft dienstenovereenkomst is van toepassing op elke interactie die u hebt met een van haar "online consumentenproducten en -diensten".
De opname van de AI-regels geeft inzicht in hoe Microsoft van plan is je gegevens te gebruiken, maar benadrukt ook de zorgen die het bedrijf heeft rond AI.
In de vijf nieuwe AI-regels staat
- Reverse Engineering. U mag de AI-services niet gebruiken om onderliggende componenten van de modellen, algoritmen en systemen te ontdekken. U mag bijvoorbeeld niet proberen de gewichten van modellen te bepalen en te verwijderen.
- Gegevens extraheren. Tenzij uitdrukkelijk toegestaan, mag u geen web scraping, web harvesting of web data extraction methoden gebruiken om gegevens uit de AI-services te extraheren.
- Beperkingen op het gebruik van gegevens van de AI-services. U mag de AI-services of gegevens van de AI-services niet gebruiken om (direct of indirect) een andere AI-service te maken, te trainen of te verbeteren.
- Gebruik van uw inhoud. Als onderdeel van het leveren van de AI-diensten, zal Microsoft uw input voor de dienst en output van de dienst verwerken en opslaan, met als doel het controleren op en voorkomen van misbruik of schadelijk gebruik of output van de dienst.
- Claims van derden. U bent als enige verantwoordelijk voor het reageren op claims van derden met betrekking tot Uw gebruik van de AI-diensten in overeenstemming met toepasselijke wetgeving (inclusief, maar niet beperkt tot, inbreuk op auteursrechten of andere claims met betrekking tot inhoud die wordt uitgevoerd tijdens Uw gebruik van de AI-diensten).
Een snelle blik op de eerste drie regels in grote lijnen laat zien dat Microsoft niet wil dat je AI gebruikt om reverse-engineering toe te passen op AI-tools of -modellen.
Het is interessant dat de eerste regel het voorbeeld gebruikt van het bepalen van de gewichten van Microsofts modellen.
Gewichten zijn de parameters die een model voor machinaal leren tijdens de training leert om voorspellingen te doen op basis van invoergegevens.
Microsoft besteedt veel rekenkracht aan het trainen van zijn modellen en wil niet dat iemand toegang heeft tot de moeren en bouten van het eindresultaat.
De vierde regel zegt dat Microsoft in de gaten zal houden hoe je zijn AI-producten gebruikt om "misbruik of schadelijk gebruik of output" te voorkomen, zonder te definiëren wat het als misbruik of schadelijk beschouwt.
Interessant genoeg is die regel niet erg gedetailleerd en wordt het gebruik van uw gegevens niet verduidelijkt, zoals Zoom heeft onlangs geprobeerd om.
De vijfde regel over claims van derden zegt in feite dat als je Microsofts AI gebruikt om inhoud te maken die het auteursrecht schendt, je er alleen voor staat. Dat lijkt redelijk.
Of je OneDrive nu gebruikt om bestanden op te slaan of Xbox om je favoriete game te spelen, je zegt in wezen dat je akkoord gaat met deze nieuwe voorwaarden.
Microsoft sluit zich aan bij een aantal bedrijven die AI gebruiken, zoals Zoom en Googledie proberen gelijke tred te houden met veranderende wetten en zorgen van gebruikers over hoe hun gegevens worden gebruikt.
Terwijl uitgevers van AI-tools zich juridisch proberen in te dekken, proberen makers van inhoud zoals de New York Times veranderen hun voorwaarden om het gebruik van hun gegevens voor het trainen van AI-modellen te blokkeren. The New York Times zegt nu specifiek dat niet-commercieel gebruik van zijn inhoud niet het trainen van AI-modellen omvat.
Verwacht mooi juridisch voetenwerk en rechtszaken als de advocaten aan beide kanten proberen te begrijpen hoe we AI kunnen gebruiken en toch iedereen tevreden kunnen houden.