Donald Trumps tidigare advokat, Michael Cohen, avslöjade att han av misstag försett sin advokat med AI-genererade falska fallciteringar.
Dessa citat ingick av misstag i en officiell domstolshandling.
Cohen förklarade detta förbiseende i ett edsvuret uttalande till en federal domstol på Manhattan, och noterade att Google Bard producerade citaten.
Han var då inte medveten om att generativ AI också kan generera felaktig information kallas hallucinationer.
Frågan aktualiserades när Jesse Furman, domare i US District, konstaterade att tre rättsfall som åberopats i Cohens begäran om att i förtid avbryta sin villkorliga frigivning i själva verket inte existerade.
Övervakad frigivning är en bestämd period efter avtjänat fängelsestraff under vilken en person övervakas och måste uppfylla särskilda villkor som domstolen ställer.
Domare Furman frågade Cohens advokat, David Schwartz, om varför han inte skulle bli föremål för disciplinära åtgärder för att ha hänvisat till dessa påhittade fall.
I sitt svar sade Cohen, som förlorade sin advokatlicens för cirka fem år sedan efter att ha dömts för olika finansiella bedrägerier och valfusk: "Jag beklagar djupt alla problem som Mr Schwartz ansökan kan ha orsakat."
Han medgav också att han inte hade förstått den senaste utvecklingen inom juridisk teknik, särskilt förmågan hos verktyg som Google Bard att generera rimliga men obefintliga juridiska citat.
Det här är inte första gången en amerikansk advokat har blivit påkommen med falsk AI-genererad juridisk forskning.
Tidigare under året hade Steven Schwartz (inte släkt med David Schwartz), en advokat i New York, fick återverkningar för att ha använt ChatGPT för att undersöka falska rättsfall för en klients juridiska klagomål.
Schwartz och hans kollega Peter LoDuca framträdde i rätten för att förklara sin användning av AI-genererade falska fall. De erkände att de hänvisade till dessa påhittade fall i sitt juridiska arbete.
Den amerikanska distriktsdomaren Kevin Castel sa om den juridiska sammanfattningen med falska fall: "Sex av de inlämnade fallen verkar vara falska rättsliga beslut med falska citat och falska interna citat."
Även om AI-användare nu borde ha ett bättre grepp om teknikens förmåga att producera falsk information, är det högst osannolikt att vi har hört det sista om den här typen av situationer.