Нью-йоркский судья предстал перед судом, чтобы объяснить, как он использовал фиктивные судебные дела, созданные искусственным интеллектом

9 июня 2023 года

Юридические дела в области ИИ OpenAI

В конце мая нью-йоркский адвокат Стивен Шварц (Steven A Schwartz) использовал ChatGPT для изучения судебных дел по поручению клиента. 

Шварц и его коллега из той же юридической фирмы, Питер ЛоДука, в четверг предстали перед судьей, чтобы объяснить свои действия. 

На слушаниях оба адвоката признались, что ссылались на ложные судебные дела, сгенерированные ChatGPT.

Шварц использовал ChatGPT для поиска юридических прецедентов в поддержку дела клиента против колумбийской авиакомпании Avianca, к которой AI вернул несколько ложных случаев и один реальный случай с грубо измененными деталями. 

Шварц процитировал их в записке истца, но когда окружной судья США Кевин Кастел получил ее, он быстро заметил следующее фиктивные дела и заявил: "Шесть из представленных дел, похоже, являются фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними ссылками".

"Я не понимал, что ChatGPT может фабриковать дела", - признался Шварц Кастелю, признав, что "действовал в заблуждении... что этот сайт получал эти дела из какого-то источника, к которому у меня не было доступа".

Судья Кастель столкнул их с конкретным сфабрикованным судебным делом, которое должно было показаться Шварцу ложным. Сначала дело было описано как дело о неправомерной смерти, но затем трансформировалось в дело о человеке, который опоздал на самолет и был вынужден оплатить дополнительные расходы. 

Другими словами, даже неспециалисту было очевидно, что это дело ложное, поэтому Шварц, скорее всего, не прочитал вывод ИИ должным образом. "Можем ли мы согласиться с тем, что это юридическая тарабарщина?" сказал Кастель о деле. 

Шварц принес глубокие извинения: "Я хотел бы искренне извиниться", и сказал, что чувствует себя "смущенным, униженным и крайне раскаивается".

ЛоДука признал, что недостаточно внимательно изучил материалы, составленные Шварцем. Он сказал: "Мне и в голову не приходило, что это было фиктивное дело", и такой исход "не дает мне покоя".

Что касается того, понесет ли дуэт наказание, адвокат Рональд Минкофф утверждает, что действия пары "были результатом небрежности, а не недобросовестности" и, следовательно, не должны быть наказаны.

Минкофф утверждал: "Мистер Шварц, который почти не занимается федеральными исследованиями, решил использовать эту новую технологию. Он думал, что имеет дело с обычной поисковой системой".

Окончательный вердикт по санкциям еще не вынесен.

ИИ "галлюцинации" создают этические и юридические проблемы

Последовательность судебные дела наносят удар по OpenAIВ том числе три случая потенциальной клеветы, которые возникли, когда выходные данные ChatGPT содержали ложную и клеветническую информацию.

Здесь результат другой. Это пример неправомерного поведения, вызванного советами, взятыми из результатов работы ChatGPT.

Дэниел Шин, адъюнкт-профессор и помощник директора по исследованиям Центра юридических и судебных технологий в Школе права Уильяма и Мэри, сказал: "Это первый задокументированный случай потенциального профессионального нарушения со стороны адвоката, использующего генеративный ИИ".

То, что кто-то совершит эту ошибку, было лишь вопросом времени. Шварц стал первым (насколько нам известно) в том прецеденте, который он, вероятно, не ожидал создать.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения