Microsoft skal betale sagsomkostninger for potentiel Copilot-krænkelse af ophavsret

8. september 2023

AI Microsoft

Microsoft har lovet at påtage sig den juridiske byrde for eventuelle krænkelser af ophavsretten, der opstår som følge af AI-genereret indhold gennem sine værktøjer, herunder Copilot.

Copilot er et AI-værktøj, der integreres direkte i Microsoft 365-softwarefamilien, som omfatter Word, PowerPoint og Excel.

Det er endnu ikke tilgængeligt for offentligheden, men det vil gøre det muligt for brugerne automatisk at oprette og opsummere tekst, oprette præsentationer, oprette grafer, analysere data og meget mere.

Ifølge Hossein Nowbar, Microsofts juridiske chef, vil Microsoft påtage sig alle potentielle juridiske risici for kommercielle kunder, der bruger virksomhedens AI-produkter, forudsat at de overholder de indbyggede "beskyttelseslinjer og indholdsfiltre".

Med andre ord: Hvis Copilot producerer indhold, der krænker en andens ophavsret, og denne sagsøger, betaler Microsoft.

Meddelelsen blev givet i detaljer via en officielt Microsoft-blogindlæghvor der står: "Specifikt, hvis en tredjepart sagsøger en kommerciel kunde for krænkelse af ophavsretten for at bruge Microsofts Copilots eller det output, de genererer, vil vi forsvare kunden og betale beløbet for eventuelle negative domme eller forlig, der følger af retssagen, så længe kunden har brugt de beskyttelsesforanstaltninger og indholdsfiltre, vi har indbygget i vores produkter."

Microsofts mål er at mindske frygten for, at generativ AI utilsigtet kan producere ophavsretligt beskyttet materiale.

Ilanah Fhima, professor i intellektuel ejendomsret ved University College London, bemærker, at "dette skridt åbner markedet" og "gør softwaren mere anvendelig, da det fjerner en af forhindringerne for virksomheder, hvis de ved, at de har denne sikkerhed."

Det var et uventet træk fra Microsoft - at love at samle stumperne op fra kundernes juridiske slagsmål er noget, der kun giver mening i AI's tidsalder. 

Desuden giver bestemmelsen om, at kunderne skal bruge produkternes "sikkerhedsnet og indholdsfiltre", Microsoft et ekstra lag af beskyttelse mod misbrug.

Etiske bekymringer og tidligere modreaktioner

Microsofts træk rejser spørgsmål om, hvorvidt virksomheden har til hensigt at fremme offentlighedens tillid til sine produkter eller blot styrke udbredelsen. 

At betale advokatsalær er én ting, men det tager ikke stilling til, om OpenAI's træningsdata indeholder ophavsretligt beskyttet indhold.

Tidligere på året afværgede Abobe Firefly potentielle problemer med ophavsret ved at sige, at modellen kun var trænet på Adobe Stock-fotos og ikke på data, der var hentet fra internettet.

Virksomheden lavede en identisk forpligtelset til at betale advokatsalær for eventuelle juridiske problemer, der opstår som følge af Fireflys resultater, men det er en relativt let forpligtelse for dem at indgå, da de ejer træningsdataene.

Microsoft kan ikke tilbyde den samme grad af gennemsigtighed på trods af de samme juridiske garantier.

Sandheden er, at det ikke ville være muligt at afsløre arten af Copilots træningsdata, da den er bygget med OpenAI's GPT-modeller, som næsten helt sikkert er blevet trænet på i det mindste noget ophavsretligt beskyttet materiale, der er opnået gennem tvivlsomme metoder.

Det betyder ikke, at OpenAI validerede skabernes ophavsret, men nogen gjorde det, og OpenAI ville have vidst det.

Microsofts blogindlæg udtrykker, at virksomheden værdsætter ophavsret og ejerskab: "Det er afgørende, at forfattere bevarer kontrollen over deres rettigheder i henhold til ophavsretsloven og tjener et sundt afkast på deres kreationer ... og vi bør sikre, at det indhold, der er nødvendigt for at træne og grundlægge AI-modeller, ikke er låst i hænderne på en eller nogle få virksomheder på måder, der ville kvæle konkurrence og innovation."

Mens Copilot er bygget på ChatGPT, får deres blogindlæg os til at tro, at de har udstyret med filtre, der strengt beskytter outputs mod at krænke ophavsretten.

Ud fra Microsofts formulering kan disse specifikke sikkerhedsforanstaltninger være unikke for Copilot og består af "klassifikatorer, metaprompter, indholdsfiltrering og operationel overvågning og registrering af misbrug, herunder det, der potentielt krænker tredjepartsindhold."

Microsoft siger også, at filtrene "reducerer sandsynligheden for, at Copilots returnerer krænkende indhold".

Formuleringen "reducere sandsynligheden" her antyder, at der stadig er en *chance* for, at værktøjerne krænker ophavsretten på trods af filtrene.

A En lang række retssager hævder, at AI-værktøjer producerer indhold, der minder for meget om ophavsretligt beskyttet materiale, herunder nogle ordrette afsnit af bøger eller resuméer, der ikke kan forklares, hvis ChatGPT ikke havde uhindret adgang til selve bøgerne.

OpenAI afviste for nylig disse sager som 'grundløs,' selvom retssagen stadig er i gang.

Mangel på klarhed

I øjeblikket er der ingen klarhed over, hvor OpenAI's GPT-modeller slutter, hvor Copilot starter, og omfanget af Microsofts finjusteringer.

I et andet indlægMicrosoft sagde: "Copilot forbinder ikke bare ChatGPT med Microsoft 365; den kombinerer kraften i store sprogmodeller (LLM'er) med dine data i Microsoft Graph (inklusive din kalender, e-mails, chats, dokumenter, møder og meget mere) og Microsoft 365-apps for at gøre dine ord til det mest kraftfulde produktivitetsværktøj på planeten."

Microsoft har udgivet en video, der forklarer, hvordan Copilot vil fungere, når den udkommer, men den går ikke i detaljer.

Indtil videre kan vi antage, at Microsofts nye indholdsfiltre og værn aggressivt filtrerer potentielt ophavsretligt beskyttet materiale, måske i højere grad end ChatGPT. Microsoft kan have renset Copilot for at neutralisere brugen af potentielt ophavsretligt beskyttet materiale.

Større konsekvenser for industrien

Microsofts dristige skridt til at påtage sig de juridiske risici ved krænkelse af ophavsretten betyder mere end blot en virksomhedsbeslutning.

Som virksomhederne udmærket er klar over, befinder vi os i det vilde vesten, når det gælder regulering af kunstig intelligens. Dette kan betegnes som en kalkuleret risiko, men det betyder også, at det er et sats.

Da love og præcedenser om AI og ophavsret stadig er under udarbejdelse, er det ikke sikkert, at virksomheden har udsigt til ublu advokatsalærer - endnu. 

Global juridisk dynamik

Da Abobe gav det samme løfte, sagde virksomhedens chefjurist Dana Rao: "Loven er ikke afgjort, og jeg kan ikke fortælle dig, hvilken vej copyright-sagerne vil gå, men jeg kan garantere dig, at jeg er født i USA, at der vil komme en masse retssager, så den forsikring er ret attraktiv [for vores virksomhedskunder] og ikke bare en gimmick."

Det er fint nok at diskutere AI-ophavsret som indlejret i amerikanske juridiske rammer, men som et multinationalt selskab kan Microsofts politik skabe præcedens, der skal navigeres i flere juridiske jurisdiktioner, hver med sine egne ophavsretslove og holdninger til AI.

Det kan tvinge Microsoft ind i en rolle, som de måske ikke ønsker: rollen som global mægler, der sætter de facto-standarden for, hvordan AI-ophavsretlige spørgsmål håndteres på verdensplan.

Antag, at Copilot producerer en tvivlsom tekst, der ligner en andens ophavsretligt beskyttede værk - Fortolkningerne af, om outputtet er en omfattende overtrædelse af ophavsretsloven, kan variere fra jurisdiktion til jurisdiktion.

For eksempel adskiller den britiske ophavsretslov sig på flere måder fra den amerikanske. Mens amerikansk ophavsretslovgivning fokuserer på "fair use", som er en ret fleksibel standard, er Storbritannien afhængig af et koncept kaldet "fair dealing", som er mere begrænset og skal passe ind i foreskrevne kategorier som forskning, anmeldelse og nyhedsrapportering.

I USA kan en enhed gøre krav på "transformativ brug" og argumentere for, at en ny skabelse tilføjer noget nyt eller ændrer det oprindelige værk væsentligt på en måde, der kan fritage det fra krænkelse af ophavsretten.

I Storbritannien gør manglen på en klausul om "transformativ brug" det imidlertid mere udfordrende at navigere i copyright-spørgsmål for AI-genereret indhold, hvilket potentielt øger Microsofts juridiske risiko, når de tilbyder deres AI-produkter til kunder i Storbritannien.

Desuden er Storbritanniens tilgang til moralske rettigheder - som beskytter det personlige forhold mellem en forfatter og dennes værk - mere robust end i USA.

Hvis en AI i væsentlig grad kopierer et ophavsretligt beskyttet værk, kan Storbritanniens stærkere beskyttelse af moralske rettigheder tilføje endnu et lag af kompleksitet til Microsofts juridiske beregninger.

Derfor kan Microsofts politik få vidtrækkende konsekvenser ved at sætte en de facto global standard.

Denne standard skal være tilstrækkelig fleksibel til at tage højde for forskellene mellem de globale rammer, men samtidig stærk nok til at give kunderne en meningsfuld beskyttelse og sikkerhed.

Formentlig vil løftet gennemgå en eller anden form for juridisk vurdering, som kan afklare, hvordan det anvendes på globale kunder, hvis det faktisk har nogen effekt uden for USA.

Sænker barriererne for kunderne og hæver dem for konkurrenterne

Ligesom Abobe sænker Microsoft de juridiske barrierer for indførelse af AI i erhvervslivet ved at love at støtte sine kunder juridisk.

Men dette skridt kan potentielt få konsekvenser for hele startup-økosystemet. Nystartede virksomheder, som ofte er drivkraften bag innovation, men som ikke har de økonomiske muskler til at påtage sig store forpligtelser, kan få stadig sværere ved at konkurrere på et marked, hvor sværvægterne tilbyder "juridisk forsikring" som en del af pakken.

Der er allerede bekymring for, at kommende AI-regler vil blive ekstremt dyre for mindre aktører i branchen at overholde.

Det kan ændre AI-udviklingslandskabet og samle magten i hænderne på dem, der har råd til at tage juridiske risici.

Er det sådan, vi ønsker, at AI-industrien skal se ud? En branche, hvor virksomheder markedsfører deres produkter ved at forpligte sig til at betale advokatsalærer?

Etisk set er dette skridt i grumset farvand. Selv om Microsoft hævder at værdsætte ophavsrettigheder og endda forsøger at beskytte dem via disse sikkerhedsforanstaltninger, opererer virksomheden i et område, hvor den "rigtige" vej stadig diskuteres.

Ved at påtage sig den juridiske byrde kan Microsoft desuden blive set som en omgåelse af behovet for strengere etiske overvejelser i forbindelse med udvikling og brug af AI.

I stedet for at investere i teknologi, der i sagens natur respekterer intellektuelle ejendomsrettigheder, vælger virksomheden at "rydde op" i eventuelt rod bagefter.

Det kan ses som en form for etisk byttehandel, hvor Microsoft bytter løftet om juridisk støtte for øget brug af sine tjenester, muligvis på bekostning af at presse på for en mere etisk AI-praksis.

Vil andre virksomheder følge trop? Sandsynligvis.

Igen giver dette scenarie kun mening i AI's tidsalder.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser