Европейская группа по защите конфиденциальности нойб подает в суд OpenAI потому что ChatGPT постоянно генерирует недостоверную информацию о людях и не хочет ее исправлять.
Несмотря на свои достижения, ChatGPT по-прежнему страдает от склонности к галлюцинировать когда не знает ответа на вопрос.
Неназванный общественный деятель, которого нойб представляет себя обиженным, когда ChatGPT неоднократно ошибались в дате своего рождения. Когда ее запрашивали, модель просто придумывала дату, вместо того чтобы сказать, что у нее нет такой информации.
Кому-то это может показаться пустяком, но введение в заблуждение относительно личной информации может привести к серьезным последствиям, поэтому в Европе это считается серьезным делом. GDPR Правила гласят, что публикуемая информация о людях должна быть точной.
Если общедоступная информация неточна, человек имеет право потребовать ее исправления или удаления. Он также имеет право знать, откуда была получена его информация, где и как она хранится.
OpenAI говорит, что ничем не может помочь. Он не может (или не хочет) сказать, что обучающие данные он используется для сбора информации о человеке и говорит, что не может остановиться ChatGPT не делать фактологически неточных заявлений о человеке или других людях.
Компания заявила, что может фильтровать запросы о человеке, но не без блокировки всех ответов, связанных с ним. OpenAI говорит, что "точность фактов в больших языковых моделях остается областью активных исследований".
Другими словами, они знают, что это проблема, но не уверены, как ее решить.
🚨 нойб подал жалобу на ChatGPT создатель OpenAI
OpenAI открыто признает, что не в состоянии исправить ложную информацию о людях на ChatGPT. Компания даже не может сказать, откуда берутся данные.
Читайте об этом здесь 👇https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29 апреля 2024 года
В своем заявлении, поданном в австрийский орган по защите данных (DSB), нойб говорит OpenAI "заявил, что не существует способа предотвратить его
системы от отображения неточной даты рождения субъекта данных в выходных данных, если пользователь запрашивает эту информацию".
нойбчто расшифровывается как "не ваше дело", говорит, что "простое составление данных о людях - это не вариант", и что OpenAIРеакция на этот вопрос недостаточно хороша.
Маартье де Грааф, юрист по защите данных из компании нойб сказал: "Обязанность выполнять запросы о доступе распространяется на все компании. Очевидно, что можно вести учет данных об обучении, которые были использованы, по крайней мере, иметь представление об источниках информации. Похоже, что с каждым "нововведением" очередная группа компаний считает, что ее продукция не обязана соответствовать закону".
OpenAI может быть объектом этого иска, но проблема ChatGPT с выдумыванием ложной информации - это проблема и других моделей.
Пока модели искусственного интеллекта не научатся говорить "я не знаю", а их создатели не будут открыто рассказывать о своих учебных данных, подобные проблемы будут возникать постоянно.
Европейские пользователи должны будут решить, насколько полезен такой инструмент, как ChatGPT является более или менее ценным, чем их права, закрепленные в GDPR.
Пока что они не могут получить ни того, ни другого.