I et oppsiktsvekkende søksmål går Mark Walters, bosatt i Georgia, til sak mot OpenAI, skaperne av AI-chatboten ChatGPT, og anklager dem for ærekrenkelse.
Saken, som antas å være den første i sitt slag, setter spørsmålstegn ved AIs ansvar for spredning av falsk informasjon.
Striden dreier seg om en journalistisk undersøkelse utført av Fred Riehl - sjefredaktør i våpenpublikasjonen AmmoLand. Riehl undersøkte en reell sak, Second Amendment Foundation (SAF) mot Ferguson, hvor SAF - en amerikansk ideell organisasjon som støtter våpenrettigheter - anklaget justisminister Bob Ferguson for å misbruke sin makt til å fordømme våpenrettigheter. Alan Gottlieb, grunnleggeren av SAF, er en av saksøkerne.
Det er her ChatGPT kommer inn i bildet, og returnerer falsk informasjon om at Alan Gottlieb har saksøkt Walters for å ha "svindlet og underslått midler" fra SAF. Her er det fullstendige svaret:
"Saksøkte Mark Walters ('Walters') er en person som er bosatt i Georgia. Walters har fungert som kasserer og økonomisjef i SAF siden minst 2012. Walters har tilgang til SAFs bankkontoer og regnskaper og er ansvarlig for å vedlikeholde disse regnskapene og levere økonomiske rapporter til SAFs styre. Walters har en lojalitets- og omsorgsplikt overfor SAF, og er forpliktet til å handle i god tro og med SAFs beste interesser for øye. Walters har brutt disse pliktene og dette ansvaret ved blant annet å underslå og tilegne seg SAFs midler og eiendeler til egen fordel, og ved å manipulere SAFs regnskaper og kontoutskrifter for å skjule sine aktiviteter."
Ifølge Walters' søksmål"Alle faktaopplysninger i sammendraget som gjelder Walters er falske." Walters var ikke involvert i Ferguson-saken, og han var heller ikke medlem eller ansatt i Second Amendment Foundation.
Walters' klage hevder at "ChatGPTs påstander om Walters var falske og ondsinnede, uttrykt på trykk, i skrift, bilder eller tegn, med en tendens til å skade Walters omdømme og utsette ham for offentlig hat, forakt eller latterliggjøring".
Walters hevdet også at Riehl burde ha visst at ChatGPT var upålitelig i slike spørsmål, og at han derfor burde ha sett bort fra AI-ens svar.
Har Walters en sjanse?
Eugene Volokh, professor ved UCLA, forsker for tiden på AIs juridiske ansvar for utganger, fortalte Gizmodo"Slike injuriesøksmål er i prinsippet juridisk holdbare. Men akkurat dette søksmålet burde være vanskelig å opprettholde."
De ærekrenkende kommentarene ble ikke offisielt publisert. Volokh sier: "Det ser ikke ut til å være noen påstander om faktiske skader - antakelig fant Riehl ut hva som foregikk, og dermed tapte Walters ingenting som følge av dette."
For å få erstatning må Walters bevise at OpenAIs produksjon viste "kunnskap om usannhet eller hensynsløs ignorering av muligheten for usannhet", også kjent som "faktisk ondskap".
Eller med andre ord, AI-hallusinasjoner er nettopp det - hallusinasjoner, om enn ikke av den godartede sorten i dette tilfellet. De er ikke tilsiktet med ondskap eller kunnskap om hensynsløs ignoranse.
Dette er ikke den eneste gangen ChatGPT har forfalsket juridisk informasjon, for det er ikke lenge siden en dommer i New York ble straffet for å ha undersøkt saker med AI-en, som også var fullstendig forfalsket.
Volokh er kritisk til hvor utfordrende det er å saksøke AI-selskaper i slike tilfeller. Han sier: "OpenAI erkjenner at det kan forekomme feil, men [ChatGPT] blir ikke markedsført som en spøk ... Det blir markedsført som noe som ofte er veldig pålitelig og nøyaktig."
Det er også spørsmål om chatbots og Paragraf 230 i Communications Decency Actsom i hovedsak beskytter internettselskaper mot å returnere potensielt ærekrenkende informasjon fra søk.
Tidslinje over ChatGPTs juridiske scenarier
Siden april har OpenAI blitt utsatt for tre anklager om falsk fremstilling gjennom AI-modellen sin.
- Brian Hood-saken: Brian Hood, den regionale ordføreren i Hepburn Shire i Australia, truet med å saksøke OpenAI i april. ChatGPT impliserte ham feilaktig i en bestikkelsesskandale og stemplet ham som en dømt kriminell. I virkeligheten var Hood varsleren som avslørte korrupsjonen.
- Jonathan Turley-saken: En lignende sak oppsto med Jonathan Turley, en jusprofessor ved George Washington University. Ifølge Turley hadde ChatGPT feilaktig anklaget ham og flere andre professorer for seksuell trakassering. AI-modellen skal ha diktet opp en historie i Washington Post og fabrikkert sitater for å underbygge påstandene. Denne hendelsen satte søkelyset på et økende problem med generative AI-modeller som produserer falske sitater og siteringer.
- Bruk i juridiske notater: En nylig sak gjaldt en advokat som i et juridisk notat inkluderte det en dommer mente var "falske rettsavgjørelser" generert av ChatGPT. Advokaten representerte en klient som saksøkte et flyselskap, og ble selv stilt for retten som følge av dette.
Juridiske eksperter prøver fortsatt å forstå de juridiske implikasjonene av generativ kunstig intelligens. AI utfordrer juridiske definisjoner av injurier, ærekrenkelser, opphavsrett og immaterielle rettigheter.
Siden disse kunstige intelligensene er tilgjengelige i mange jurisdiksjoner, vil de juridiske aspektene knyttet til regulering og styring av dem sannsynligvis bli svært vanskelige å løse, og det er angivelig mange andre saker på gang.