Нью-йоркский адвокат Стивен Шварц (Steven A Schwartz) использовал ChatGPT для изучения нескольких "дел", которые оказались ложными.
Дело Шварца касалось человека, подавшего в суд на колумбийскую авиакомпанию Avianca. Истец работал с командой юристов Levidow, Levidow & Oberman, которые подготовили юридическую записку, ссылающуюся на совершенно ложные судебные дела.
Шварц попросил ChatGPT подтвердить, что дела реальны, но он попытался детально проверить только одно из них, и ChatGPT заверил его, что оно может быть найдено в базах данных Westlaw и LexisNexis. Исходя из этого, Шварц решил, что остальные дела тоже реальны.
Позже выяснилось, что только один случай был реальным, Зичерман против Кореан Эйр Лайнз Ко, 516 США 217 (1996)В ChatGPT неверно указана дата и некоторые другие детали.
После того как команда истца представила записку, один из ее получателей, окружной судья США Кевин Кастел, заявил: "Шесть из представленных дел, похоже, являются фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними ссылками".
Один из судебные протоколы говорит"Суд сталкивается с беспрецедентным обстоятельством. Представление, поданное адвокатом истца в ответ на ходатайство о прекращении дела, изобилует ссылками на несуществующие дела".
Шварц, имеющий 30-летний опыт работы адвокатом, заявил, что это была невинная ошибка, и сказал суду, что он "очень сожалеет" об использовании ChatGPT для исследований и "не знал, что его содержание может быть ложным". Он также признал, что использовал ChatGPT в других судебных делах.
Шварц, действовавший от имени Питера ЛеДоку, коллеги по той же юридической фирме, должен предстать перед судом 8 июня, чтобы объяснить, почему на него и его юридическую фирму не должны быть наложены санкции.
Когда ChatGPT проверяет ChatGPT
OpenAI ясно дает понять, что ChatGPT уязвим к искажению истины, но ИИ может показаться уверенным в себе, когда предоставляет контекстуально значимые "примеры", не соответствующие действительности, что также называется "галлюцинацией".
Это проблема и в академической среде, где ChatGPT часто генерирует ложные ссылки, иногда доходя до создания реалистичных исследований и экспериментов, которых никогда не было.
Многие университеты выступили с заявлениями, подчеркивающими это. Например, Университет Дьюка заявляет."Что вы можете не знать о ChatGPT, так это то, что у него есть существенные ограничения в качестве надежного помощника в исследованиях. Одно из таких ограничений заключается в том, что он, как известно, фабрикует или "галлюцинирует" (в терминах машинного обучения) цитаты."
Анализ ссылок на предмет несоответствий стал для преподавателей надежным способом поймать студентов, использующих ChatGPT для написания эссе.
Именно это и произошло со Шварцем - его поймали. Он был не первым и не последним. Он выглядел искренне невежественным, но невежество не обязательно является защитой в суде.
Генерирование ложных юридических ссылок является тревожным примером ошибочности ChatGPT и служит убедительным напоминанием о необходимости проверять, перепроверять и трижды перепроверять "факты", о которых рассказывают генеративные ИИ.