Microsoft har lovet å ta på seg den juridiske byrden for eventuelle brudd på opphavsretten som oppstår som følge av AI-generert innhold gjennom sine verktøy, inkludert Copilot.
Copilot er et AI-verktøy som integreres direkte i Microsoft 365-programvarefamilien, som inkluderer Word, PowerPoint og Excel.
Det er ennå ikke tilgjengelig for publikum, men vil gjøre det mulig for brukere å automatisk opprette og oppsummere tekst, lage presentasjoner, lage grafer, analysere data og mye mer.
Ifølge Hossein Nowbar, Microsofts juridiske direktør, vil Microsoft påta seg all potensiell juridisk risiko for kommersielle kunder som bruker selskapets AI-produkter, forutsatt at de overholder de innebygde "beskyttelsesrammene og innholdsfiltrene".
Med andre ord: Hvis Copilot produserer innhold som krenker andres opphavsrett, og de går til sak, vil Microsoft betale.
Kunngjøringen ble gjort i detalj via en offisielt blogginnlegg fra Microsoft, der det står: "Hvis en tredjepart saksøker en kommersiell kunde for brudd på opphavsretten på grunn av bruk av Microsofts Copilots eller utdataene de genererer, vil vi forsvare kunden og betale beløpet for eventuelle negative dommer eller forlik som følger av søksmålet, så lenge kunden har brukt beskyttelsestiltakene og innholdsfiltrene vi har bygget inn i produktene våre."
Microsoft ønsker å dempe frykten for at generativ AI utilsiktet kan produsere opphavsrettsbeskyttet materiale.
Ilanah Fhima, professor i immaterialrett ved University College London, bemerker at "dette tiltaket åpner markedet" og "gjør programvaren mer anvendelig, ettersom det fjerner en av hindringene for bedrifter som vet at de har denne tryggheten".
Dette var et uventet trekk fra Microsoft - å love å plukke opp bitene fra kundenes juridiske kamper er noe som bare gir mening i AI-tidsalderen.
Dessuten gir bestemmelsen om at kundene må bruke produktenes "beskyttelsesgitter og innholdsfiltre" Microsoft et ekstra lag med beskyttelse mot misbruk.
Etiske bekymringer og tidligere motreaksjoner
Microsofts trekk reiser spørsmål om hvorvidt selskapet har til hensikt å skape tillit til produktene sine, eller om de bare ønsker å øke bruken av dem.
Å betale advokatkostnader er én ting, men det tar ikke stilling til om OpenAIs treningsdata inneholder opphavsrettslig beskyttet innhold.
Tidligere i år avviste Abobe Firefly potensielle problemer med opphavsrett ved å opplyse om at modellen kun var trent på Adobe Stock-bilder og ikke på data hentet fra Internett.
Selskapet gjorde en identisk forpliktelset til å betale advokatutgifter for eventuelle juridiske problemer som kan oppstå som følge av Fireflys resultater, men det er en relativt enkel forpliktelse for dem å påta seg, siden de eier opplæringsdataene.
Microsoft kan ikke tilby samme grad av åpenhet, til tross for at de tilbyr de samme juridiske garantiene.
Sannheten er at det ikke er mulig å avsløre Copilots treningsdata, ettersom den er bygget med OpenAIs GPT-modeller, som nesten helt sikkert ble trent på i det minste noe opphavsrettsbeskyttet materiale som ble innhentet gjennom tvilsomme metoder.
Det betyr ikke at OpenAI validerte opphavsrettighetene til skaperne, men noen gjorde det, og OpenAI burde ha visst det.
Microsofts blogginnlegg uttrykker at selskapet verdsetter opphavsrett og eierskap, og skriver: "Det er avgjørende for opphavsmenn å beholde kontrollen over sine rettigheter i henhold til opphavsrettsloven og tjene en sunn avkastning på sine kreasjoner ... og vi bør sikre at innholdet som trengs for å trene opp og grunnlegge AI-modeller, ikke blir låst i hendene på ett eller noen få selskaper på en måte som vil kvele konkurranse og innovasjon."
Selv om Copilot er bygget på ChatGPT, får blogginnlegget deres oss til å tro at de har utstyrt den med filtre som strengt beskytter utganger mot brudd på opphavsrettigheter.
Ut fra Microsofts ordlyd kan disse spesifikke beskyttelsestiltakene være unike for Copilot og består av "klassifiseringsverktøy, metaprompter, innholdsfiltrering og operasjonell overvåking og deteksjon av misbruk, inkludert det som potensielt krenker tredjepartsinnhold".
Microsoft sier også at filtrene "reduserer sannsynligheten for at Copilots returnerer krenkende innhold".
Formuleringen "redusere sannsynligheten" her innebærer at det fortsatt er en *sjanse* for at verktøyene krenker opphavsrettigheter til tross for filtrene.
A en rekke søksmål hevder at AI-verktøyene produserer innhold som ligner for mye på opphavsrettsbeskyttet materiale, inkludert noen ordrette deler av bøker eller sammendrag som ikke kan forklares hvis ChatGPT ikke hadde uhindret tilgang til selve bøkene.
OpenAI avviste nylig disse sakene somgrunnløs...", selv om rettssaker fortsatt pågår.
Mangel på klarhet
Foreløpig er det uklart hvor OpenAIs GPT-modeller slutter, hvor Copilot begynner og hvor omfattende Microsofts finjusteringer er.
I et annet innlegg"Copilot kobler ikke bare ChatGPT til Microsoft 365; den kombinerer kraften i store språkmodeller (LLM-er) med dataene dine i Microsoft Graph (inkludert kalenderen, e-post, chatter, dokumenter, møter og mer) og Microsoft 365-appene for å gjøre ordene dine til det kraftigste produktivitetsverktøyet på planeten."
Microsoft har lagt ut en video som forklarer hvordan Copilot vil fungere når den lanseres, men den går ikke i detalj.
Inntil videre kan vi anta at Microsofts nye innholdsfiltre og beskyttelseslister filtrerer potensielt opphavsrettsbeskyttet materiale på en aggressiv måte, kanskje i større grad enn ChatGPT. Microsoft kan ha renset Copilot for å nøytralisere bruken av potensielt opphavsrettsbeskyttet materiale.
Større konsekvenser for bransjen
Microsofts dristige trekk for å påta seg den juridiske risikoen ved brudd på opphavsretten betyr mer enn bare en bedriftsbeslutning.
Som selskapene er klar over, befinner vi oss i det ville vesten når det gjelder regulering av kunstig intelligens. Dette kan betegnes som en kalkulert risiko, men det innebærer også at det er et sjansespill.
Siden lover og presedens om AI og opphavsrett fortsatt er under utforming, er det ikke sikkert at selskapet må belage seg på ublu advokatutgifter - ennå.
Global juridisk dynamikk
Da Abobe ga det samme løftet, sa selskapets juridiske direktør Dana Rao: "Loven er ikke avgjort, og jeg kan ikke fortelle deg hvilken vei opphavsrettssakene kommer til å gå, men jeg kan garantere deg, som er født i USA, at det kommer til å bli mange rettssaker, så denne forsikringen er ganske attraktiv [for bedriftskundene våre], og egentlig ikke en gimmick."
Det er vel og bra å diskutere opphavsrett til kunstig intelligens som en del av USAs juridiske rammeverk, men som et multinasjonalt selskap kan Microsofts policy skape presedens som må håndteres i flere jurisdiksjoner, hver med sine egne opphavsrettslige lover og holdninger til kunstig intelligens.
Dette kan tvinge Microsoft inn i en rolle de kanskje ikke ønsker: rollen som en global voldgiftsdommer som setter de facto-standarden for hvordan opphavsrettsspørsmål knyttet til kunstig intelligens skal håndteres over hele verden.
Sett at Copilot produserer en tvilsom tekst som ligner på noens opphavsrettsbeskyttede verk - Tolkningen av hvorvidt produksjonen bryter med opphavsrettsloven kan variere fra jurisdiksjon til jurisdiksjon.
Den britiske opphavsrettsloven skiller seg for eksempel fra den amerikanske på flere måter. Mens amerikansk opphavsrettslovgivning fokuserer på "fair use", som er en noe fleksibel standard, er Storbritannia avhengig av et konsept som kalles "fair dealing", som er mer begrenset og må passe inn i foreskrevne kategorier som forskning, anmeldelser og nyhetsrapportering.
I USA kan en enhet hevde at en ny kreasjon tilfører noe nytt eller endrer det opprinnelige verket vesentlig på en måte som kan frita det fra opphavsrettskrenkelser.
I Storbritannia gjør imidlertid mangelen på en klausul om "transformativ bruk" det mer utfordrende å navigere i opphavsrettslige spørsmål knyttet til AI-generert innhold, noe som potensielt kan øke Microsofts juridiske risiko når de tilbyr sine AI-produkter til kunder i Storbritannia.
Dessuten er Storbritannias tilnærming til ideelle rettigheter - som beskytter det personlige forholdet mellom en opphavsmann og verket - mer robust enn i USA.
Hvis en kunstig intelligens i vesentlig grad kopierer et opphavsrettsbeskyttet verk, kan Storbritannias sterkere beskyttelse av ideelle rettigheter gjøre Microsofts juridiske kalkyle enda mer komplisert.
Microsofts policy kan derfor få vidtrekkende konsekvenser når det gjelder å sette en de facto global standard.
Denne standarden må være fleksibel nok til å ta hensyn til forskjellene mellom de globale rammeverkene, men samtidig streng nok til å gi kundene en meningsfull beskyttelse og forsikring.
Antagelig vil løftet gjennomgå en viss grad av juridisk vurdering, noe som kan avklare hvordan det skal anvendes på globale kunder, hvis det faktisk har noen effekt utenfor USA.
Lavere barrierer for kundene, høyere for konkurrentene
I likhet med Abobe senker Microsoft de juridiske hindringene for bruk av kunstig intelligens i næringslivet ved å love å støtte kundene sine juridisk.
Dette trekket kan imidlertid potensielt få ringvirkninger i hele økosystemet for oppstartsbedrifter. Oppstartsbedrifter, som ofte driver innovasjon, men som ikke har de økonomiske musklene til å påta seg omfattende forpliktelser, kan få det stadig vanskeligere å konkurrere i et marked der tungvekterne tilbyr "juridisk forsikring" som en del av pakken.
Det er allerede bekymring for at det kommende AI-regelverket vil bli ekstremt dyrt å overholde for mindre aktører i bransjen.
Dette kan endre landskapet for utvikling av kunstig intelligens og samle makten i hendene på dem som har råd til å ta juridisk risiko.
Er det slik vi ønsker at AI-bransjen skal se ut? En bransje der selskaper markedsfører produktene sine ved å forplikte seg til å betale advokatsalær?
Etisk sett er dette et uklart farvann. Selv om Microsoft hevder å verdsette opphavsrettigheter og til og med har som mål å beskytte dem gjennom disse beskyttelsestiltakene, opererer selskapet i et område der det fortsatt diskuteres hva som er "riktig" vei å gå.
Ved å påta seg den juridiske byrden kan Microsoft dessuten bli sett på som en måte å omgå behovet for strengere etiske hensyn i utviklingen og bruken av kunstig intelligens.
I stedet for å investere i teknologi som i seg selv respekterer immaterielle rettigheter, velger selskapet å "rydde opp" i eventuelt rot i etterkant.
Dette kan ses på som en form for etisk byttehandel, der Microsoft bytter løftet om juridisk støtte mot økt bruk av tjenestene sine, muligens på bekostning av å presse på for en mer etisk AI-praksis.
Vil andre selskaper følge etter? Sannsynligvis.
Igjen, dette scenariet gir bare mening i en tid med kunstig intelligens.