Европейская группа по защите конфиденциальности нойб подает в суд OpenAI потому что ChatGPT постоянно генерирует недостоверную информацию о людях и не хочет ее исправлять.
Несмотря на свои достижения, ChatGPT по-прежнему страдает от склонности к галлюцинировать когда не знает ответа на вопрос.
Неназванный общественный деятель, которого нойб представляет себя обиженным, когда ChatGPT неоднократно ошибались в дате своего рождения. Когда ее запрашивали, модель просто придумывала дату, вместо того чтобы сказать, что у нее нет такой информации.
Кому-то это может показаться пустяком, но введение в заблуждение относительно личной информации может привести к серьезным последствиям, поэтому в Европе это считается серьезным делом. GDPR Правила гласят, что публикуемая информация о людях должна быть точной.
Если общедоступная информация неточна, человек имеет право потребовать ее исправления или удаления. Он также имеет право знать, откуда была получена его информация, где и как она хранится.
OpenAI говорит, что ничем не может помочь. Он не может (или не хочет) сказать, что обучающие данные он используется для сбора информации о человеке и говорит, что не может остановиться ChatGPT не делать фактологически неточных заявлений о человеке или других людях.
Компания заявила, что может фильтровать запросы о человеке, но не без блокировки всех ответов, связанных с ним. OpenAI говорит, что "точность фактов в больших языковых моделях остается областью активных исследований".
Другими словами, они знают, что это проблема, но не уверены, как ее решить.
нойб подал жалобу на ChatGPT создатель OpenAI
OpenAI открыто признает, что не в состоянии исправить ложную информацию о людях на ChatGPT. Компания даже не может сказать, откуда берутся данные.
Читайте об этом здесь
https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29 апреля 2024 года
В своем заявлении, поданном в австрийский орган по защите данных (DSB), нойб говорит OpenAI "заявил, что не существует способа предотвратить его
системы от отображения неточной даты рождения субъекта данных в выходных данных, если пользователь запрашивает эту информацию".
нойбчто расшифровывается как "не ваше дело", говорит, что "простое составление данных о людях - это не вариант", и что OpenAIРеакция на этот вопрос недостаточно хороша.
Маартье де Грааф, юрист по защите данных из компании нойб сказал: "Обязанность выполнять запросы о доступе распространяется на все компании. Очевидно, что можно вести учет данных об обучении, которые были использованы, по крайней мере, иметь представление об источниках информации. Похоже, что с каждым "нововведением" очередная группа компаний считает, что ее продукция не обязана соответствовать закону".
OpenAI может быть объектом этого иска, но проблема ChatGPT с выдумыванием ложной информации - это проблема и других моделей.
Пока модели искусственного интеллекта не научатся говорить "я не знаю", а их создатели не будут открыто рассказывать о своих учебных данных, подобные проблемы будут возникать постоянно.
Европейские пользователи должны будут решить, насколько полезен такой инструмент, как ChatGPT является более или менее ценным, чем их права, закрепленные в GDPR.
Пока что они не могут получить ни того, ни другого.