Advokat ertappad med att generera falska rättsfall med ChatGPT

28 maj 2023

AI juridisk forskning

New York-advokaten Steven A Schwartz använde ChatGPT för att undersöka flera "fall" som visade sig vara falska. 

Schwartz fall gällde en man som stämde det colombianska flygbolaget Avianca. Målsäganden arbetade med ett juridiskt team, Levidow, Levidow & Oberman, som utarbetade en juridisk sammanfattning med hänvisning till helt falska rättsfall. 

Schwartz bad ChatGPT om en försäkran om att fallen var verkliga, men han försökte bara dubbelkolla ett av fallen i detalj, och ChatGPT försäkrade honom om att det fanns i databaserna Westlaw och LexisNexis. På grundval av detta antog Schwartz att även de andra fallen var verkliga. 

Det visade sig senare att endast ett fall var verkligt, Zicherman mot Korean Air Lines Co, 516 U.S. 217 (1996), och ChatGPT angav fel datum och flera andra detaljer.

Efter att kärandens team hade lämnat in skrivelsen uttalade en av mottagarna, den amerikanska distriktsdomaren Kevin Castel, "Sex av de inlämnade fallen verkar vara falska rättsliga beslut med falska citat och falska interna citat."

En av de domstolshandlingar säger"Domstolen presenteras med en aldrig tidigare skådad omständighet. En inlaga som lämnats in av kärandens ombud i motsats till ett yrkande om avvisning är fylld med hänvisningar till obefintliga fall."

Rättsfall inom AI
Domstolens svar på de falska fall som Schwartz lämnat in. Källan är..: Court Listener.

Schwartz, som har 30 års erfarenhet som advokat, hävdade att detta var ett oskyldigt misstag och berättade för domstolen att han "ångrar djupt" att han använde ChatGPT för forskning och var "omedveten om att dess innehåll kunde vara falskt". Han medgav också att han använt ChatGPT i andra rättsfall. 

Schwartz, som agerade på uppdrag av Peter LeDocu, en kollega på samma advokatbyrå, ska inställa sig inför domstolen den 8 juni för att förklara varför han och hans advokatbyrå inte ska straffas.

När ChatGPT kontrollerar ChatGPT

OpenAI är mycket tydlig med att ChatGPT är sårbar för att förvränga sanningen, men AI:n kan framstå som självsäker när den ger kontextuellt relevanta "exempel" som inte är korrekta i sak - även kallat "hallucinationer". 

Detta är ett problem även inom den akademiska världen, där ChatGPT ofta genererar falska referenser och ibland går så långt som att skapa realistiska studier och experiment som aldrig har ägt rum.

Många universitet har gjort uttalanden som belyser detta. Till exempel, Duke University säger, "Vad du kanske inte vet om ChatGPT är att det har betydande begränsningar som en pålitlig forskningsassistent. En sådan begränsning är att den har varit känd för att fabricera eller "hallucinera" (i maskininlärningstermer) citat." 

Att analysera referenser för inkonsekvenser har blivit ett pålitligt sätt för handledare att fånga studenter som använder ChatGPT för att skriva uppsatser. 

Det var precis vad som hände med Schwartz - han åkte fast. Han var inte den första och han kommer inte att bli den sista. Han verkade genuint okunnig, men okunnighet utgör inte nödvändigtvis ett försvar i domstol. 

Att generera falska juridiska citat är ett alarmerande exempel på ChatGPT:s felbarhet och fungerar som en kraftfull påminnelse om att kontrollera, dubbelkontrollera och trippelkontrollera "fakta" som generativa AI:er presenterar.  

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar