New York-dommer møder op i retten for at forklare sin brug af falske AI-genererede retssager

9. juni 2023

Juridiske sager om AI OpenAI

I slutningen af maj brugte New York-advokaten Steven A Schwartz ChatGPT til at undersøge retssager på vegne af en klient. 

Schwartz og en kollega fra samme advokatfirma, Peter LoDuca, mødte op foran en dommer torsdag for at forklare deres handlinger. 

Under høringen indrømmede begge advokater, at de havde henvist til falske retssager genereret af ChatGPT.

Schwartz brugte ChatGPT til at finde juridiske fortilfælde til støtte for en klients sag mod det colombianske flyselskab Avianca, som AI returnerede flere falske sager og en rigtig sag med groft ændrede detaljer. 

Schwartz citerede dem i sagsøgerens brief, men da den amerikanske distriktsdommer Kevin Castel modtog den, lagde han hurtigt mærke til falske sager og sagde: "Seks af de indsendte sager ser ud til at være falske retsafgørelser med falske citater og falske interne henvisninger."

"Jeg forstod ikke, at ChatGPT kunne fabrikere sager", tilstod Schwartz over for Castel og indrømmede, at han havde "opereret under en misforståelse ... at denne hjemmeside fik disse sager fra en kilde, som jeg ikke havde adgang til."

Dommer Castel konfronterede dem med en særlig opdigtet retssag, som burde have slået Schwartz som falsk. Sagen blev først beskrevet som en sag om uberettiget død, men blev senere omdannet til en sag om en mand, der missede et fly og blev tvunget til at betale ekstra udgifter. 

Med andre ord, selv for en lægmand var det nok tydeligt, at denne sag var falsk, så Schwartz læste sandsynligvis ikke AI'ens output ordentligt. "Kan vi blive enige om, at det er juridisk volapyk?" sagde Castel om sagen. 

Schwartz undskyldte voldsomt: "Jeg vil gerne oprigtigt undskylde" og sagde, at han følte sig "flov, ydmyget og ekstremt angrende".

LoDuca indrømmede, at han ikke gennemgik det materiale, Schwartz havde samlet, tilstrækkeligt. Han sagde: "Det gik aldrig op for mig, at dette var en falsk sag", og at resultatet "piner mig grænseløst."

Med hensyn til, om duoen vil blive straffet, argumenterede advokat Ronald Minkoff for, at parrets handlinger "skyldtes skødesløshed, ikke ond tro", og at de derfor ikke skulle straffes.

Minkoff argumenterede: "Hr. Schwartz, som næsten ikke laver føderal forskning, valgte at bruge denne nye teknologi. Han troede, at han havde med en almindelig søgemaskine at gøre."

Den endelige dom om sanktioner er endnu ikke afsagt.

AI-"hallucinationer" giver både etiske og juridiske problemer

En sekvens af Retssager rammer OpenAIherunder tre sager om potentielle injurier, der opstod, da ChatGPT's output indeholdt falske og ærekrænkende oplysninger.

Resultatet her er anderledes. Dette er et eksempel på dårlig opførsel som følge af råd fra ChatGPT's output.

Daniel Shin, adjungeret professor og assisterende forskningsleder ved Center for Legal and Court Technology ved William & Mary Law School, sagde: "Dette var det første dokumenterede tilfælde af potentiel professionel forseelse fra en advokat, der brugte generativ AI."

Det var kun et spørgsmål om tid, før nogen begik denne fejl. Schwartz var tilfældigvis den første (så vidt vi ved) i det, der har vist sig at være en præcedens, som han nok ikke havde regnet med at skabe.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser