L'ancien avocat de Donald Trump, Michael Cohen, a révélé qu'il avait fourni par inadvertance à son avocat de fausses citations d'affaires générées par l'IA.
Ces citations ont été incluses par erreur dans un dossier officiel du tribunal.
M. Cohen a expliqué cet oubli dans une déclaration sous serment devant un tribunal fédéral de Manhattan, en précisant que Google Bard avait produit les citations.
Il ne savait pas alors que l'IA générative est susceptible de générer des informations erronées. appelées hallucinations.
La question a été mise en lumière lorsque le juge de district américain Jesse Furman a observé que trois affaires juridiques citées dans la demande de M. Cohen de mettre fin de manière anticipée à sa liberté surveillée étaient, en fait, inexistantes.
La libération conditionnelle est une période déterminée après l'exécution d'une peine d'emprisonnement pendant laquelle une personne est surveillée et doit se conformer à des conditions spécifiques imposées par le tribunal.
Le juge Furman a demandé à l'avocat de Cohen, David Schwartz, pourquoi il ne devrait pas faire l'objet de mesures disciplinaires pour avoir cité ces cas imaginaires.
Dans sa réponse, M. Cohen, qui a perdu sa licence d'avocat il y a environ cinq ans à la suite de sa condamnation pour diverses fraudes financières et électorales, a déclaré : "Je regrette profondément les problèmes que le dossier de M. Schwartz a pu causer".
Il a également admis avoir mal compris les récents développements en matière de technologie juridique, en particulier la capacité d'outils tels que Google Bard à générer des citations juridiques plausibles mais inexistantes.
Ce n'est pas la première fois qu'un avocat américain se fait surprendre par de fausses recherches juridiques générées par l'IA.
Au début de l'année, Steven Schwartz (sans lien de parenté avec David Schwartz), un avocat new-yorkais, a subi des répercussions pour avoir utilisé ChatGPT afin de rechercher de fausses affaires juridiques dans le cadre de la plainte d'un client.
M. Schwartz et son collègue Peter LoDuca ont comparu devant le tribunal pour expliquer leur utilisation de fausses affaires générées par l'IA. Ils ont admis avoir fait référence à ces cas fabriqués dans leur travail juridique.
Le juge du district américain Kevin Castel a déclaré à propos du dossier juridique contenant de fausses affaires : "Six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes".
Si les utilisateurs d'IA devraient désormais mieux comprendre la capacité de la technologie à produire des informations fausses et trompeuses, il est peu probable que nous ayons fini d'entendre parler de ce genre de situations.