Donald Trumps ehemaliger Anwalt Michael Cohen nutzte KI für falsche juristische Zitate

Dezember 30, 2023

AI-Gesetz

Der ehemalige Anwalt von Donald Trump, Michael Cohen, hat bekannt gegeben, dass er seinen Anwalt versehentlich mit KI-generierten falschen Fallzitaten versorgt hat. 

Diese Zitate waren irrtümlich in einer offiziellen Gerichtsakte enthalten. 

Cohen erklärte dieses Versehen in einer eidesstattlichen Erklärung vor einem Bundesgericht in Manhattan und wies darauf hin, dass Google Bard die Zitate vorlegte.

Damals war ihm nicht bewusst, dass generative KI auch Fehlinformationen erzeugen kann. Halluzinationen genannt

Die Angelegenheit kam ans Licht, als der US-Bezirksrichter Jesse Furman feststellte, dass drei Rechtsfälle, die in Cohens Antrag auf eine vorzeitige Beendigung seiner überwachten Freilassung angeführt wurden, in Wirklichkeit nicht existierten. 

Bei der überwachten Entlassung handelt es sich um einen bestimmten Zeitraum nach Verbüßung einer Haftstrafe, in dem eine Person überwacht wird und bestimmte vom Gericht auferlegte Bedingungen erfüllen muss. 

Richter Furman befragte Cohens Anwalt David Schwartz, warum er nicht disziplinarisch belangt werden sollte, weil er diese imaginären Fälle angeführt hatte. 

In seiner Antwort sagte Cohen, der seine Anwaltslizenz vor etwa fünf Jahren nach seiner Verurteilung wegen verschiedener Finanz- und Wahlbetrügereien verloren hatte: "Ich bedauere zutiefst, dass die Einreichung von Herrn Schwartz Probleme verursacht hat." 

Er räumte auch ein, dass er die jüngsten Entwicklungen in der Rechtstechnologie nicht verstanden habe, insbesondere die Fähigkeit von Tools wie Google Bard, plausible, aber nicht existierende Rechtszitate zu generieren.

Es ist nicht das erste Mal, dass ein US-Anwalt von einer falschen KI-generierten Rechtsrecherche erwischt wird.

Anfang des Jahres hatte Steven Schwartz (nicht verwandt mit David Schwartz), ein New Yorker Rechtsanwalt, eine Klage eingereicht, hatte Auswirkungen weil er ChatGPT benutzt hat, um für die Klage eines Kunden falsche Rechtsfälle zu recherchieren. 

Schwartz und sein Kollege Peter LoDuca erschienen vor Gericht, um ihre Verwendung von KI-generierten falschen Fällen zu erklären. Sie gaben zu, sich bei ihrer juristischen Arbeit auf diese gefälschten Fälle bezogen zu haben. 

US-Bezirksrichter Kevin Castel sagte zu dem Schriftsatz, der falsche Fälle enthielt: "Sechs der vorgelegten Fälle scheinen gefälschte Gerichtsentscheidungen mit falschen Zitaten und gefälschten internen Verweisen zu sein." 

Auch wenn KI-Nutzer nun ein besseres Verständnis dafür haben sollten, dass die Technologie in der Lage ist, gefälschte und falsche Informationen zu produzieren, ist es sehr unwahrscheinlich, dass wir von dieser Art von Situationen das letzte Mal gehört haben.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen