El exabogado de Donald Trump, Michael Cohen, reveló que, sin darse cuenta, proporcionó a su abogado citas de casos falsos generados por IA.
Estas citaciones se incluyeron por error en un expediente judicial oficial.
Cohen explicó este descuido en una declaración jurada ante un tribunal federal de Manhattan, señalando que Google Bard elaboró las citaciones.
Entonces no era consciente de que la IA generativa es susceptible de generar desinformación, también llamadas alucinaciones.
La cuestión salió a la luz cuando el juez de distrito estadounidense Jesse Furman observó que tres casos legales citados en la solicitud de Cohen para una terminación anticipada de su libertad supervisada eran, de hecho, inexistentes.
La libertad vigilada es un periodo determinado tras el cumplimiento de una pena de prisión durante el cual una persona está vigilada y debe cumplir unas condiciones específicas impuestas por el tribunal.
El juez Furman preguntó al abogado de Cohen, David Schwartz, por qué no debía enfrentarse a medidas disciplinarias por citar estos casos imaginarios.
En su respuesta, Cohen, que perdió su licencia legal hace unos cinco años tras su condena por diversos fraudes financieros y electorales, dijo: "Lamento profundamente cualquier problema que la presentación del Sr. Schwartz haya podido causar."
También admitió no haber entendido bien los últimos avances de la tecnología jurídica, en concreto la capacidad de herramientas como Google Bard para generar citas jurídicas plausibles pero inexistentes.
No es la primera vez que un abogado estadounidense se ve sorprendido por una falsa investigación jurídica generada por IA.
A principios de año, Steven Schwartz (no relacionado con David Schwartz), un abogado de Nueva York, se enfrentó a repercusiones por usar ChatGPT para investigar casos legales falsos para la denuncia legal de un cliente.
Schwartz y su colega Peter LoDuca comparecieron ante el tribunal para explicar su uso de casos falsos generados por IA. Admitieron hacer referencia a estos casos fabricados en su trabajo jurídico.
El juez de distrito estadounidense Kevin Castel dijo del escrito legal que contenía casos falsos: "Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas."
Aunque ahora los usuarios de la IA deberían tener una idea más clara de la capacidad de la tecnología para producir información falsa, es muy poco probable que este tipo de situaciones hayan desaparecido.