Donald Trumps tidligere advokat, Michael Cohen, afslørede, at han ved en fejl havde forsynet sin advokat med AI-genererede falske sagsfremstillinger.
Disse citater blev ved en fejltagelse inkluderet i en officiel retssag.
Cohen forklarede denne forglemmelse i en edsvoren erklæring til en føderal domstol på Manhattan og bemærkede, at Google Bard producerede citaterne.
Dengang var han ikke klar over, at generativ AI også kan generere misinformation. kaldet hallucinationer.
Spørgsmålet kom frem, da den amerikanske distriktsdommer Jesse Furman bemærkede, at tre juridiske sager, som Cohen henviste til i sin anmodning om en tidlig ophævelse af sin prøveløsladelse, faktisk ikke eksisterede.
Overvåget løsladelse er en bestemt periode efter afsoning af en fængselsstraf, hvor en person overvåges og skal overholde specifikke betingelser, der er pålagt af retten.
Dommer Furman spurgte Cohens advokat, David Schwartz, om, hvorfor han ikke skulle have en disciplinærsag for at henvise til disse imaginære sager.
I sit svar sagde Cohen, som mistede sin advokatlicens for omkring fem år siden efter at være blevet dømt for forskellige former for økonomisk svindel og valgsvindel: "Jeg beklager dybt de problemer, som Schwartz' ansøgning kan have forårsaget."
Han indrømmede også, at han ikke havde forstået den seneste udvikling inden for juridisk teknologi, især evnen hos værktøjer som Google Bard til at generere plausible, men ikke-eksisterende juridiske citater.
Det er ikke første gang, en amerikansk advokat er blevet afsløret af falsk AI-genereret juridisk research.
Tidligere på året blev Steven Schwartz (ikke i familie med David Schwartz), en advokat fra New York, stod over for konsekvenser for at bruge ChatGPT til at undersøge falske retssager til en klients juridiske klage.
Schwartz og hans kollega Peter LoDuca mødte op i retten for at forklare deres brug af AI-genererede falske sager. De indrømmede, at de henviste til disse opdigtede sager i deres juridiske arbejde.
Den amerikanske distriktsdommer Kevin Castel sagde om det juridiske notat, der indeholdt falske sager: "Seks af de indsendte sager ser ud til at være falske retsafgørelser med falske citater og falske interne henvisninger."
Selv om AI-brugere nu burde have en bedre forståelse af teknologiens evne til at producere falske oplysninger, er det højst usandsynligt, at vi har hørt det sidste til den slags situationer.