Microsoft har lovat att ta på sig den juridiska bördan för eventuella upphovsrättsintrång som uppstår från AI-genererat innehåll genom sina verktyg, inklusive Copilot.
Copilot är ett AI-verktyg som integreras direkt i programvarufamiljen Microsoft 365, där Word, PowerPoint och Excel ingår.
Det är ännu inte tillgängligt för allmänheten men kommer att göra det möjligt för användare att automatiskt skapa och sammanfatta text, skapa presentationer, skapa grafer, analysera data och mycket mer.
Enligt Hossein Nowbar, Microsofts chefsjurist för juridiska frågor, kommer Microsoft att ta på sig alla potentiella juridiska risker för kommersiella kunder som använder företagets AI-produkter, förutsatt att de följer de inbyggda "skyddsräckena och innehållsfiltren".
Med andra ord, om Copilot producerar innehåll som gör intrång i någon annans upphovsrätt och denne stämmer, kommer Microsoft att betala.
Tillkännagivandet gjordes i detalj via en officiellt blogginlägg från Microsoftdär det står: "Om en tredje part stämmer en kommersiell kund för upphovsrättsintrång för att ha använt Microsofts Copilots eller de resultat som de genererar, kommer vi att försvara kunden och betala beloppet för eventuella negativa domar eller förlikningar som följer av stämningen, så länge kunden använde de skyddsräcken och innehållsfilter som vi har byggt in i våra produkter."
Microsoft vill minska farhågorna om att generativ AI oavsiktligt kan producera upphovsrättsskyddat material.
Ilanah Fhima, professor i immaterialrätt vid University College London, konstaterar att "den här åtgärden öppnar upp marknaden" och "gör programvaran mer användbar eftersom den undanröjer ett av hindren för företag som vet att de kan känna sig trygga".
Det här var ett oväntat drag från Microsoft - att lova att plocka upp bitarna från kundernas juridiska strider är något som bara är meningsfullt i AI-åldern.
Dessutom ger bestämmelsen om att kunderna måste använda produkternas "skyddsräcken och innehållsfilter" Microsoft ett extra lager av skydd mot missbruk.
Etiska betänkligheter och tidigare motreaktioner
Microsofts drag väcker frågor om huruvida företaget har för avsikt att främja allmänhetens förtroende för sina produkter eller bara stärka adoptionen.
Att betala rättegångskostnader är en sak, men det handlar inte om huruvida OpenAI:s utbildningsdata innehåller upphovsrättsskyddat innehåll.
Tidigare i år avfärdade Abobe Firefly eventuella upphovsrättsliga problem genom att ange att modellen endast tränats på Adobe Stock-foton och inte på data som skrapats från internet.
Företaget gjorde ett identiskt åtagandeatt betala juridiska avgifter för eventuella juridiska problem som uppstår till följd av Fireflys resultat, men det är ett relativt enkelt åtagande för dem att göra, eftersom de äger träningsdatan.
Microsoft kan inte erbjuda samma nivå av transparens trots att de erbjuder samma juridiska garantier.
Sanningen är att det inte skulle vara möjligt att avslöja Copilots träningsdata, eftersom den är byggd med OpenAI:s GPT-modeller, som nästan säkert har tränats på åtminstone en del upphovsrättsskyddat material som erhållits genom tvivelaktiga metoder.
Därmed inte sagt att OpenAI validerade upphovsrätten, men någon gjorde det och OpenAI borde ha vetat om det.
Microsofts blogginlägg uttrycker att företaget värdesätter upphovsrätt och ägande och säger: "Det är viktigt att författare behåller kontrollen över sina rättigheter enligt upphovsrättslagen och tjänar en sund avkastning på sina skapelser ... och vi bör se till att det innehåll som behövs för att träna och grunda AI-modeller inte är låst i händerna på ett eller några få företag på sätt som skulle kväva konkurrens och innovation."
Medan Copilot bygger på ChatGPT, leder deras blogginlägg oss att tro att de har utrusta den med filter som strikt skyddar utdata från att bryta mot upphovsrätten.
Enligt Microsofts ordalydelse kan dessa specifika skyddsräcken vara unika för Copilot och består av "klassificerare, metaprompter, innehållsfiltrering samt operativ övervakning och upptäckt av missbruk, inklusive sådant som potentiellt gör intrång i tredje parts innehåll".
Microsoft säger också att filtren "minskar sannolikheten för att Copilots returnerar innehåll som gör intrång".
Formuleringen "minska sannolikheten" antyder här att det fortfarande finns en *chans* att verktygen gör intrång i upphovsrätten trots filtren.
A En rad stämningar hävdar att AI-verktyg producerar innehåll som alltför mycket liknar upphovsrättsskyddat material, inklusive vissa ordagranna avsnitt av böcker eller sammanfattningar som inte kan förklaras om ChatGPT inte hade obehindrad tillgång till själva böckerna.
OpenAI avfärdade nyligen dessa fall somgrundlös," även om rättsliga förfaranden fortfarande pågår.
Bristande tydlighet
För närvarande finns det ingen klarhet i var OpenAI:s GPT-modeller slutar, var Copilot börjar och omfattningen av Microsofts finjusteringar.
I ett annat inläggMicrosoft säger: "Copilot kopplar inte bara ChatGPT till Microsoft 365, utan kombinerar kraften i stora språkmodeller (LLM) med dina data i Microsoft Graph (inklusive din kalender, e-post, chattar, dokument, möten med mera) och Microsoft 365-apparna för att förvandla dina ord till det mest kraftfulla produktivitetsverktyget på planeten."
Microsoft släppte en video som förklarar hur Copilot kommer att fungera när den släpps, men den går inte in på detaljer.
Tills vidare kan vi anta att Microsofts nya innehållsfilter och skyddsräcken aggressivt filtrerar potentiellt upphovsrättsskyddat material, kanske i större utsträckning än ChatGPT. Microsoft kan ha sanerat Copilot för att neutralisera dess användning av potentiellt upphovsrättsskyddat material.
Större konsekvenser för branschen
Microsofts djärva beslut att ta på sig de juridiska riskerna för upphovsrättsintrång innebär mer än bara ett företagsbeslut.
Som företagen är väl medvetna om befinner vi oss i vilda västern när det gäller reglering av AI. Detta kan betecknas som en kalkylerad risk, men det innebär också att det är ett vågspel.
Eftersom lagar och prejudikat om AI och upphovsrätt fortfarande är under utarbetande kanske företaget inte behöver räkna med orimliga advokatkostnader - ännu.
Global juridisk dynamik
När Abobe gjorde samma utfästelse sa företagets chefsjurist Dana Rao: "Lagen är inte avgjord och jag kan inte säga åt vilket håll upphovsrättsmålen kommer att gå, men jag kan garantera dig som är född i USA att det kommer att bli många stämningar, så den här försäkringen är ganska attraktiv [för våra företagskunder] och inte bara en gimmick."
Det är gott och väl att diskutera AI-upphovsrätt som inbäddad i amerikanska juridiska ramverk, men som ett multinationellt företag kan Microsofts policy skapa ett prejudikat som måste navigeras i flera juridiska jurisdiktioner, var och en med sina egna upphovsrättslagar och attityder till AI.
Detta kan tvinga Microsoft in i en roll som företaget kanske inte vill ha: rollen som en global skiljedomare som sätter de facto-standarden för hur upphovsrättsfrågor som rör AI hanteras över hela världen.
Anta att Copilot producerar en tvivelaktig text som liknar någons upphovsrättsligt skyddade verk - Tolkningar av huruvida produktionen på ett omfattande sätt bryter mot upphovsrättslagen kan variera från jurisdiktion till jurisdiktion.
Till exempel skiljer sig Storbritanniens upphovsrättslagstiftning på flera sätt från USA:s. Medan den amerikanska upphovsrättslagen fokuserar på "fair use", som är en något flexibel standard, förlitar sig Storbritannien på ett koncept som kallas "fair dealing", som är mer begränsat och måste passa in i föreskrivna kategorier som forskning, granskning och nyhetsrapportering.
I USA kan en enhet göra anspråk på "transformative use" och hävda att en ny skapelse tillför något nytt eller väsentligt förändrar det ursprungliga verket på ett sätt som kan undanta det från upphovsrättsintrång.
I Storbritannien gör dock avsaknaden av en klausul om "transformative use" det svårare att navigera i upphovsrättsfrågor för AI-genererat innehåll, vilket potentiellt kan öka Microsofts juridiska risk när företaget erbjuder sina AI-produkter till kunder baserade i Storbritannien.
Dessutom är Storbritanniens syn på moraliska rättigheter - som skyddar den personliga relationen mellan en upphovsman och dennes verk - mer robust än i USA.
Om en AI skulle göra en väsentlig kopia av ett upphovsrättsskyddat verk kan Storbritanniens starkare skydd för moraliska rättigheter lägga ytterligare ett lager av komplexitet till Microsofts juridiska kalkyl.
Microsofts policy kan därför få långtgående konsekvenser genom att den de facto sätter en global standard.
Denna standard måste vara tillräckligt flexibel för att ta hänsyn till skillnaderna mellan de globala ramverken, men samtidigt tillräckligt kraftfull för att ge kunderna ett meningsfullt skydd och garantier.
Förmodligen kommer löftet att genomgå någon form av juridisk granskning, vilket kan klargöra hur det tillämpas på globala kunder om det verkligen har någon effekt utanför USA.
Sänker barriärerna för kunderna och höjer dem för konkurrenterna
Precis som Abobe sänker Microsoft de juridiska hindren för AI-användning i näringslivet genom att lova att stödja sina kunder juridiskt.
Detta drag kan dock potentiellt ge ringar på vattnet i ekosystemet för nystartade företag. Nystartade företag, som ofta driver innovation men saknar de finansiella musklerna för att ta på sig omfattande ansvar, kan få det allt svårare att konkurrera på en marknad där tungviktarna erbjuder "rättsförsäkring" som en del av paketet.
Det finns redan farhågor om att kommande AI-regleringar kommer att bli extremt dyra för mindre branschaktörer att följa.
Detta kan förändra landskapet för AI-utveckling och konsolidera makten i händerna på dem som har råd att ta juridiska risker.
Är det så här vi vill att AI-industrin ska se ut? En bransch där företag marknadsför sina produkter genom att åta sig att betala advokatkostnader?
Etiskt sett är det här ett steg i rätt riktning. Även om Microsoft säger sig värdesätta upphovsrätten och till och med strävar efter att skydda den via dessa skyddsräcken, verkar företaget i ett område där den "rätta" vägen fortfarande diskuteras.
Genom att ta på sig den juridiska bördan kan Microsoft dessutom anses kringgå behovet av strängare etiska överväganden vid utveckling och användning av AI.
Istället för att investera i teknik som i sig respekterar immateriella rättigheter väljer företaget att "städa upp" eventuell oreda i efterhand.
Detta kan ses som en form av etisk byteshandel, där Microsoft byter ut löftet om juridiskt stöd mot ökad användning av sina tjänster, möjligen på bekostnad av att driva på för mer etiska AI-metoder.
Kommer andra företag att följa efter? Förmodligen.
Återigen, det här scenariot är bara rimligt i AI:s tidevarv.