Donald Trumps tidligere advokat, Michael Cohen, avslørte at han ved en feiltakelse hadde forsynt advokaten sin med AI-genererte falske sakssitater.
Disse sitatene ble ved en feil tatt med i et offisielt rettsdokument.
Cohen forklarte denne forglemmelsen i en edsvoren uttalelse til en føderal domstol på Manhattan, og bemerket at Google Bard produserte sitatene.
Han var da ikke klar over at generativ AI også kan generere feilinformasjon kalt hallusinasjoner.
Saken ble kjent da den amerikanske distriktsdommeren Jesse Furman bemerket at tre rettssaker som Cohen hadde henvist til i sin anmodning om tidlig opphør av prøveløslatelsen, i realiteten ikke eksisterte.
Overvåket løslatelse er en bestemt periode etter soning av en fengselsstraff der en person blir overvåket og må overholde bestemte vilkår som er fastsatt av retten.
Dommer Furman spurte Cohens advokat, David Schwartz, om hvorfor han ikke skulle bli møtt med disiplinærtiltak for å ha henvist til disse imaginære sakene.
Cohen, som mistet sin advokatbevilling for rundt fem år siden etter å ha blitt dømt for ulike former for økonomisk bedrageri og valgfusk, sa i sitt svar: "Jeg beklager dypt alle problemer Schwartz' innlevering kan ha forårsaket."
Han innrømmet også at han ikke hadde forstått den siste utviklingen innen juridisk teknologi, særlig muligheten verktøy som Google Bard har til å generere plausible, men ikke-eksisterende juridiske sitater.
Dette er ikke første gang en amerikansk advokat har blitt tatt på fersken av falske AI-genererte juridiske undersøkelser.
Tidligere i år ble Steven Schwartz (ikke i slekt med David Schwartz), en advokat i New York, fikk konsekvenser for å ha brukt ChatGPT til å undersøke falske rettssaker for en klients juridiske klage.
Schwartz og hans kollega Peter LoDuca møtte i retten for å forklare bruken av AI-genererte falske saker. De innrømmet å ha referert til disse oppdiktede sakene i sitt juridiske arbeid.
Den amerikanske distriktsdommeren Kevin Castel sa følgende om det juridiske notatet som inneholdt falske saker: "Seks av de innsendte sakene ser ut til å være falske rettsavgjørelser med falske sitater og falske interne henvisninger."
Selv om AI-brukere nå bør ha et bedre grep om teknologiens evne til å produsere falsk informasjon, er det høyst usannsynlig at vi har hørt det siste om denne typen situasjoner.