Бывший адвокат Дональда Трампа Майкл Коэн использовал искусственный интеллект для создания ложных юридических цитат

30 декабря 2023 года

Закон об искусственном интеллекте

Бывший адвокат Дональда Трампа Майкл Коэн рассказал, что по неосторожности предоставил своему адвокату сгенерированные искусственным интеллектом ложные ссылки на дела. 

Эти цитаты были по ошибке включены в официальную судебную документацию. 

Коэн объяснил эту оплошность в заявлении под присягой в федеральном суде Манхэттена, отметив, что Google Bard предоставила ссылки.

Тогда он еще не знал, что генеративный ИИ способен генерировать дезинформацию, а также называемые галлюцинации

Этот вопрос стал известен после того, как окружной судья США Джесси Фурман заметил, что три судебных дела, на которые ссылался Коэн в просьбе о досрочном прекращении его освобождения под надзором, на самом деле не существовали. 

Освобождение под надзором - это определенный период после отбытия тюремного срока, в течение которого человек находится под наблюдением и должен соблюдать определенные условия, навязанные судом. 

Судья Фурман задал адвокату Коэна Дэвиду Шварцу вопрос о том, почему он не должен подвергнуться дисциплинарному взысканию за ссылки на эти вымышленные случаи. 

В своем ответе Коэн, который около пяти лет назад лишился юридической лицензии после осуждения за различные финансовые и предвыборные махинации, заявил: "Я глубоко сожалею о любых проблемах, которые могла вызвать подача заявления мистера Шварца". 

Он также признал, что не понимает последних изменений в юридических технологиях, в частности способности таких инструментов, как Google Bard, генерировать правдоподобные, но несуществующие юридические цитаты.

Это не первый случай, когда американские юристы попались на ложных исследованиях, сгенерированных искусственным интеллектом.

В начале года Стивен Шварц (не родственник Дэвида Шварца), нью-йоркский адвокат, столкнулся с последствиями за использование ChatGPT для поиска фиктивных судебных дел для судебной жалобы клиента. 

Шварц и его коллега Питер ЛоДука явились в суд, чтобы объяснить, как они использовали сгенерированные искусственным интеллектом ложные дела. Они признались, что ссылались на эти сфабрикованные дела в своей юридической работе. 

Окружной судья США Кевин Кастел сказал о юридической записке, содержащей фальшивые дела: "Шесть из представленных дел, похоже, являются фальшивыми судебными решениями с фальшивыми цитатами и фальшивыми внутренними ссылками". 

Хотя пользователи ИИ теперь должны лучше понимать способность технологии создавать фальшивую и ложную информацию, маловероятно, что мы услышали последний раз о подобных ситуациях.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения