New York Times (NYT) lagde i dag sag an mod OpenAI og Microsoft og hævdede, at virksomhederne overtrådte deres ophavsret ved at bruge deres indhold til at træne deres AI-modeller.
Hverken Microsoft eller OpenAI er villige til at bekræfte præcis, hvilke data der blev brugt til at træne deres modeller, men det bliver mere og mere klart, at det stort set var alt, hvad der er tilgængeligt på internettet.
The Times henvendte sig til Microsoft og OpenAI i april for at diskutere sine bekymringer over, hvordan deres indhold blev brugt. De juridiske dokumenter viser, at de på trods af disse bestræbelser ikke var i stand til at nå frem til en løsning. I august sagde de, at de var overvejer at anlægge sag Og nu har de endelig gjort det.
Arkiveringen siger, at de AI-modeller, som OpenAI og Microsoft har trænet på NYT-indhold, "fratager The Times indtægter fra abonnementer, licenser, reklamer og affiliate".
Når brugere stiller ChatGPT eller Copilot et spørgsmål om noget, som The Times har rapporteret om, hævder søgsmålet, at disse modeller "genererer output, der gengiver Times-indhold ordret, opsummerer det nøje og efterligner dets udtryksfulde stil", og ofte uden links til den oprindelige artikel.
Når brugerne får svar på ChatGPT uden at klikke sig videre til The Times' hjemmeside, går virksomheden glip af reklame- og abonnementsindtægter.
Medievirksomheden ejer også anmeldelseshjemmesider som Wirecutter. The Times hævder, at anmeldelsesindhold ofte gengives af AI-chatbots, hvor henvisningslinkene er fjernet. Dette fratager The Times indtægter fra affiliate-henvisninger.
Søgsmålet hævder også, at AI-modeller som ChatGPT har en tendens til at hallucinere, hvilket skader deres omdømme. Nogle gange genereres faktuelt forkerte svar som følge af modellens hallucinationer, men de tilskrives stadig The Times.
Men lavede den kopier?
De store AI-virksomheder ser alle ud til at være involveret i retssager om ophavsret i øjeblikket. OpenAI, Meta, Microsoft, Stabil diffusionog andre er i øjeblikket involveret i retssager fra forfattere, kunstnere og andre kreative.
Det generelle argument fra de sagsøgte er, at AI-modeller ikke laver kopier af de data, de trænes på, og at brug af ophavsretligt beskyttede data til træning falder ind under princippet om fair brug.
Eksemplerne i NYT-retssagen gør det svært at argumentere for denne pointe. Her er et eksempel på en ChatGPT-interaktion, der ordret kopierer indhold fra The Times.
Den juridiske arkivering indeholder flere eksempler på artikler, der er citeret ordret af både ChatGPT og Bing Chat / Copilot.
Hvad er der på spil?
Times' søgsmål nævner ikke et specifikt beløb, men siger, at Microsoft og OpenAI bør holdes "ansvarlige for de milliarder af dollars i lovbestemte og faktiske skader, som de skylder for den ulovlige kopiering og brug af The Times' unikt værdifulde værker."
Der står også, at udover at stoppe yderligere brug af NYT-indhold skal "alle GPT- eller andre LLM-modeller og træningssæt, der indeholder Times Works", destrueres.
Hvis denne retssag går imod OpenAI og Microsoft, vil det skabe præcedens, som næsten helt sikkert vil få andre medieudgivere til at stille op med deres advokater.
Virksomhederne ville være nødt til at skrotte deres modeller og træne dem igen fra bunden, men denne gang uden det krænkende indhold.
For journalistbranchen er bæredygtigheden af rapportering af høj kvalitet på spil. Hvis de taber deres retssag, hvordan skal nyhedsudgivere som The Times så finansiere skrivningen af artikler, som det ofte tager journalister hundredvis af timer at lave?
Ingen af delene er tiltalende. Tidligere på måneden indgik OpenAI en licensaftale med nyhedsudgiveren Axel Springer til at inkludere sit nyhedsindhold i ChatGPT-svar. Det virker uundgåeligt, at vores nyheder genereres og leveres af AI.
Mange aviser, som ikke formåede at gå fra print til online, findes ikke længere. New York Times klarede overgangen med succes. Hvordan vil denne nyhedsudgiver og andre klare journalistikkens næste fase i AI's tidsalder?
Lad os håbe, at vi får lov til at beholde både vores AI-modeller og menneskelige journalister.