O ex-advogado de Donald Trump, Michael Cohen, revelou que, inadvertidamente, forneceu ao seu advogado citações de casos falsos geradas por IA.
Estas citações foram incluídas por engano num dossier oficial do tribunal.
Cohen explicou este lapso numa declaração sob juramento a um tribunal federal em Manhattan, referindo que o Google Bard produziu as citações.
Nessa altura, não sabia que a IA generativa também é suscetível de gerar desinformação chamadas alucinações.
A questão veio a lume quando o juiz distrital Jesse Furman observou que os três casos legais citados no pedido de Cohen para terminar antecipadamente a sua liberdade vigiada eram, de facto, inexistentes.
A libertação vigiada é um período determinado após o cumprimento de uma pena de prisão durante o qual um indivíduo é monitorizado e deve cumprir condições específicas impostas pelo tribunal.
O juiz Furman questionou o advogado de Cohen, David Schwartz, sobre a razão pela qual não deveria ser objeto de uma ação disciplinar por ter citado estes casos imaginários.
Na sua resposta, Cohen, que perdeu a sua licença legal há cerca de cinco anos na sequência da sua condenação por várias fraudes financeiras e eleitorais, disse: "Lamento profundamente quaisquer problemas que o processo do Sr. Schwartz possa ter causado".
Admitiu também um lapso na compreensão dos recentes desenvolvimentos da tecnologia jurídica, nomeadamente a capacidade de ferramentas como o Google Bard para gerar citações jurídicas plausíveis mas inexistentes.
Esta não é a primeira vez que um advogado norte-americano é apanhado por uma falsa investigação jurídica gerada por IA.
No início do ano, Steven Schwartz (não relacionado com David Schwartz), um advogado de Nova Iorque, enfrentou repercussões por utilizar o ChatGPT para pesquisar casos jurídicos falsos para uma queixa legal de um cliente.
Schwartz e o seu colega Peter LoDuca compareceram em tribunal para explicar a sua utilização de casos falsos gerados por IA. Admitiram ter feito referência a estes casos fabricados no seu trabalho jurídico.
O juiz distrital dos EUA, Kevin Castel, referiu-se ao dossier jurídico que continha casos falsos: "Seis dos casos apresentados parecem ser decisões judiciais falsas, com citações e citações internas falsas".
Embora os utilizadores de IA devam agora ter uma noção mais clara da capacidade da tecnologia para produzir informações falsas e falsas, é altamente improvável que este tipo de situações tenha acabado.