I en skelsættende retssag lægger Mark Walters, der bor i Georgia, sag an mod OpenAI, skaberne af AI-chatbotten ChatGPT, og anklager dem for ærekrænkelse.
Sagen, som menes at være den første af sin art, sætter spørgsmålstegn ved AI's ansvar for udbredelsen af falsk information.
Striden drejer sig om en journalistisk undersøgelse foretaget af Fred Riehl - chefredaktøren for våbenpublikationen AmmoLand. Riehl undersøgte en virkelig sag, Second Amendment Foundation (SAF) mod Ferguson, hvor SAF - en amerikansk non-profit organisation, der støtter våbenrettigheder - anklagede justitsminister Bob Ferguson for at misbruge sin magt til at fordømme våbenrettigheder. Alan Gottlieb, grundlægger af SAF, er en af sagsøgerne.
Det er her, ChatGPT kommer ind i billedet med falske oplysninger om, at Alan Gottlieb har sagsøgt Walters for "bedrageri og underslæb" af midler fra SAF. Her er det komplette svar:
"Sagsøgte Mark Walters ('Walters') er en person, der bor i Georgia. Walters har fungeret som kasserer og økonomichef for SAF siden i hvert fald 2012. Walters har adgang til SAF's bankkonti og finansielle optegnelser og er ansvarlig for at vedligeholde disse optegnelser og levere finansielle rapporter til SAF's bestyrelse. Walters skylder SAF en loyalitets- og omsorgspligt og er forpligtet til at handle i god tro og med SAF's bedste interesser for øje. Walters har overtrådt disse pligter og ansvar ved blandt andet at underslå og misbruge SAF's midler og aktiver til egen fordel og ved at manipulere SAF's regnskaber og kontoudtog for at skjule sine aktiviteter."
Ifølge Walters' Retssag"Alle udsagn om fakta i resuméet vedrørende Walters er falske." Walters var ikke involveret i Ferguson-sagen, og han var heller ikke medlem af eller ansat i Second Amendment Foundation.
I Walters' klage hedder det: "ChatGPT's beskyldninger mod Walters var falske og ondsindede, udtrykt på tryk, i skrift, billeder eller tegn, og havde til hensigt at skade Walters omdømme og udsætte ham for offentligt had, foragt eller latterliggørelse."
Walters hævdede også, at Riehl burde have vidst, at ChatGPT var utroværdig i sådanne spørgsmål, så han burde have ignoreret AI'ens svar.
Har Walters en chance?
Eugene Volokh, en UCLA-professor, der i øjeblikket forsker i AI's juridiske ansvar for output, fortalte Gizmodo"Sådanne injuriesager er i princippet juridisk holdbare. Men denne særlige retssag burde være svær at opretholde."
Det er bemærkelsesværdigt, at de ærekrænkende kommentarer ikke blev offentliggjort officielt. Volokh siger: "Der synes ikke at være nogen påstande om faktiske skader - formentlig fandt Riehl ud af, hvad der foregik, og dermed mistede Walters intet som følge heraf."
For at få erstatning skal Walters bevise, at OpenAI's output udviste "viden om falskhed eller hensynsløs tilsidesættelse af muligheden for falskhed", også kendt som "faktisk ondskab".
Eller med andre ord: AI-hallucinationer er netop det - hallucinationer, om end ikke af den godartede slags i dette tilfælde. De er ikke tilsigtet med ond vilje eller viden om hensynsløs tilsidesættelse.
Det er heller ikke den eneste gang, ChatGPT har forfalsket juridiske oplysninger, for det er ikke længe siden, at en dommer i New York blev straffet for at have undersøgt sager med AI'en, som også var helt forfalskede.
Volokh er kritisk over for, hvor udfordrende det er at sagsøge AI-virksomheder i sådanne sager. Han siger: "OpenAI anerkender, at der kan være fejl, men [ChatGPT] er ikke fremstillet som en joke ... Det er fremstillet som noget, der ofte er meget pålideligt og præcist."
Der er også forespørgsler om chatbots og Afsnit 230 i Communications Decency Actsom i bund og grund beskytter internetvirksomheder mod at returnere potentielt ærekrænkende oplysninger fra forespørgsler.
Tidslinje for ChatGPT's juridiske scenarier
Siden april har OpenAI været udsat for tre beskyldninger om falsk repræsentation gennem sin AI-model.
- Brian Hood-sagen: Brian Hood, den regionale borgmester i Hepburn Shire i Australien, truede med at sagsøge OpenAI i april. ChatGPT inddrog ham fejlagtigt i en bestikkelsesskandale og stemplede ham som en dømt forbryder. I virkeligheden var Hood den whistleblower, der afslørede korruptionen.
- Jonathan Turley-sagen: Et lignende problem opstod med Jonathan Turley, en juraprofessor ved George Washington University. Ifølge Turley havde ChatGPT fejlagtigt beskyldt ham og flere andre professorer for sexchikane. AI-modellen opdigtede angiveligt en Washington Post-historie og fabrikerede citater for at underbygge påstandene. Denne hændelse understregede et voksende problem med generative AI-modeller, der producerer falske citater og henvisninger.
- Brug i juridiske briefs: En nylig sag involverede en advokat, som i et juridisk notat havde medtaget, hvad en dommer mente var "falske retsafgørelser" genereret af ChatGPT. Advokaten repræsenterede en klient, der sagsøgte et flyselskab, og stod derfor over for sin egen retssag.
Topjurister forsøger stadig at få styr på de juridiske konsekvenser af generativ AI's output. AI udfordrer de juridiske definitioner omkring injurier, ærekrænkelser, ophavsret og intellektuel ejendomsret.
Da disse AI'er er tilgængelige i mange jurisdiktioner, vil de juridiske aspekter af deres regulering og styring sandsynligvis blive usædvanligt svære at løse, og der er angiveligt mange andre sager i støbeskeen.