Житель штата Джорджия Марк Уолтерс подал судебный иск против компании OpenAI, создателей чат-бота с искусственным интеллектом ChatGPT, обвинив их в клевете.
Дело, которое, как считается, является первым в своем роде, ставит под сомнение ответственность AI за распространение ложной информации.
Спор разгорелся вокруг журналистского расследования Фреда Рила - главного редактора оружейного издания AmmoLand. Риль исследовал реальный случай, Фонд второй поправки (SAF) против Фергюсона, в котором SAF - американская некоммерческая организация, поддерживающая права на оружие, - обвиняла генерального прокурора Боба Фергюсона в злоупотреблении властью, чтобы осудить права на оружие. Алан Готлиб, основатель SAF, является одним из истцов.
Тут-то и появился ChatGPT, выдавший ложную информацию о том, что Алан Готтлиб подал на Уолтерса в суд за "обман и хищение средств" из SAF. Вот полный ответ:
"Ответчик Марк Уолтерс ("Уолтерс") - физическое лицо, проживающее в штате Джорджия. Уолтерс занимает должность казначея и финансового директора SAF по меньшей мере с 2012 года. Уолтерс имеет доступ к банковским счетам и финансовым документам SAF и отвечает за ведение этих документов и предоставление финансовых отчетов совету директоров SAF. Уолтерс обязан выполнять фидуциарные обязанности SAF, связанные с лояльностью и заботой, и должен действовать добросовестно и с учетом интересов SAF. Уолтерс нарушил эти обязанности, в частности, присвоив и растратив средства и активы SAF в своих интересах, а также манипулируя финансовой отчетностью и банковскими выписками SAF, чтобы скрыть свою деятельность".
По словам Уолтерса судебный иск"Каждое утверждение фактов в резюме, касающееся Уолтерса, является ложным". Уолтерс не участвовал в деле Фергюсона, не был членом или сотрудником Second Amendment Foundation.
В жалобе Уолтерса утверждается: "Утверждения ChatGPT в отношении Уолтерса были ложными и злонамеренными, выраженными в печатных изданиях, письмах, картинках или знаках, направленными на подрыв репутации Уолтера и подвергающими его общественной ненависти, презрению или насмешкам".
Уолтерс также утверждал, что Риль должен был знать, что ChatGPT не заслуживает доверия в таких вопросах, поэтому он должен был проигнорировать ответ ИИ.
Есть ли у Уолтерса шанс?
Юджин Волох, профессор Калифорнийского университета, в настоящее время исследующий юридическую ответственность ИИ за выходы, рассказал GizmodoВ принципе, "подобные иски о клевете юридически жизнеспособны. Но этот конкретный иск будет трудно поддержать".
Примечательно, что клеветнические комментарии не были официально опубликованы. Волох говорит: "Похоже, что здесь нет заявлений о реальном ущербе - предположительно, Риль догадался, что происходит, и Уолтерс ничего не потерял в результате".
Чтобы получить компенсацию, Уолтерсу придется доказать, что в действиях OpenAI присутствовало "знание ложных сведений или безрассудное пренебрежение возможностью ложных сведений", что также известно как "действительный злой умысел".
Или, другими словами, галлюцинации ИИ - это именно галлюцинации, пусть и не самые доброкачественные в данном случае. В них нет злого умысла или безрассудного пренебрежения.
Это не единственный случай, когда ChatGPT фальсифицирует юридическую информацию: не так давно судья из Нью-Йорка понес наказание за изучение дел с помощью искусственного интеллекта, которые также были полностью сфальсифицированы.
Волох критически оценивает, насколько сложно подавать в суд на компании, занимающиеся разработкой ИИ, в подобных случаях. Он говорит: "OpenAI признает, что могут быть ошибки, но [ChatGPT] не преподносится как шутка... Она преподносится как нечто, что часто бывает очень надежным и точным".
Есть также вопросы о чат-ботах и Раздел 230 Закона о пристойности в сфере коммуникаций, который, по сути, защищает интернет-компании от возврата потенциально порочащей информации по запросам.
Хронология юридических сценариев ChatGPT
С апреля OpenAI столкнулась с тремя обвинениями в ложных представлениях своей модели искусственного интеллекта.
- Дело Брайана Худа: Брайан Худ, региональный мэр Хепберн-Шайр в Австралии, в апреле пригрозил подать в суд на OpenAI. ChatGPT ложно обвинила его в скандале со взяточничеством, навесив на него ярлык осужденного преступника. На самом деле Худ был информатором, который разоблачил коррупцию.
- Дело Джонатана Терли: Похожая проблема возникла у Джонатана Терли, профессора права из Университета Джорджа Вашингтона. По словам Терли, ChatGPT ложно обвинил его и нескольких других профессоров в сексуальных домогательствах. ИИ-модель якобы выдумала статью в Washington Post и сфабриковала цитаты, чтобы подтвердить обвинения. Этот инцидент высветил растущую проблему генеративных моделей ИИ, создающих ложные цитаты и ссылки.
- Используйте в юридических записках: В недавнем деле фигурировал адвокат, который включил в юридическую записку то, что судья счел "фиктивными судебными решениями", сгенерированными ChatGPT. Адвокат представлял интересы клиента, подавшего в суд на авиакомпанию, и в результате столкнулся с собственным судебным разбирательством.
Ведущие специалисты в области права все еще пытаются разобраться в правовых последствиях результатов работы генеративного ИИ. ИИ бросает вызов юридическим определениям, связанным с клеветой, диффамацией, авторским правом и интеллектуальной собственностью.
Поскольку эти ИИ доступны во многих юрисдикциях, юридические вопросы, связанные с их регулированием и управлением, скорее всего, окажутся исключительно сложными, и, предположительно, на очереди еще много других дел.