Европейский совет по защите данных год назад создал целевую группу ChatGPT, чтобы выяснить, соответствует ли работа OpenAI с персональными данными законам GDPR. Теперь опубликован отчет с предварительными выводами.
ЕС крайне строго относится к использованию личных данных своих граждан. Правила GDPR четко определяют, что компании могут и чего не могут делать с этими данными.
Соблюдают ли ИИ-компании вроде OpenAI эти законы, когда используют данные для обучения и работы своих моделей? Спустя год после начала работы Целевой группы ChatGPT, краткий ответ таков: может быть, а может и нет.
Отчет В статье говорится, что она публикует предварительные данные и "пока невозможно представить полное описание результатов".
Три основные области, которые исследовала рабочая группа, - законность, справедливость и точность.
Законность
Для создания своих моделей OpenAI собирала публичные данные, фильтровала их, использовала для обучения своих моделей и продолжает обучать свои модели с помощью подсказок пользователей. Законно ли это в Европе?
При веб-скреппинге OpenAI неизбежно собирает персональные данные. Согласно GDPR, вы можете использовать эту информацию только при наличии законного интереса и с учетом разумных ожиданий людей относительно использования их данных.
OpenAI утверждает, что ее модели соответствуют статье 6(1)(f) GDPR, которая гласит, что использование персональных данных является законным, если "обработка необходима для соблюдения законных интересов, преследуемых контролером или третьей стороной".
В отчете говорится, что "необходимо принять меры по удалению или анонимизации личных данных, собранных с помощью веб-скреппинга, еще до этапа обучения".
OpenAI утверждает, что у нее есть средства защиты персональных данных, но целевая группа говорит, что "бремя доказательства эффективности таких мер лежит на OpenAI".
Справедливость
Когда граждане ЕС взаимодействуют с компаниями, они ожидают, что их личные данные будут обработаны надлежащим образом.
Справедливо ли, что в Условиях использования ChatGPT есть пункт, в котором говорится, что пользователи несут ответственность за вводимые ими данные в чате? Согласно GDPR, организация не может перекладывать ответственность за соблюдение GDPR на пользователя.
В отчете говорится, что если "ChatGPT станет общедоступным, то следует предположить, что люди рано или поздно будут вводить персональные данные. Если эти данные затем станут частью модели данных и, например, будут переданы любому, кто задаст конкретный вопрос, OpenAI останется ответственной за соблюдение GDPR и не должна утверждать, что ввод определенных персональных данных был запрещен изначально".
В отчете делается вывод, что OpenAI должна быть прозрачной и четко информировать пользователей о том, что их вводные данные могут быть использованы в целях обучения.
Точность
Модели искусственного интеллекта галлюцинировать И ChatGPT не является исключением. Когда он не знает ответа, то иногда просто что-то придумывает. Предоставляя неверные факты о людях, ChatGPT нарушает требование GDPR о точности персональных данных.
В отчете отмечается, что "результаты, предоставляемые ChatGPT, скорее всего, будут восприняты конечными пользователями как фактологически точные, включая информацию, касающуюся отдельных лиц, независимо от их фактической точности".
Несмотря на то что ChatGPT предупреждает пользователей о том, что иногда допускает ошибки, целевая группа считает, что этого "недостаточно для соблюдения принципа точности данных".
OpenAI подала в суд, потому что ChatGPT постоянно ошибается в дате рождения известного общественного деятеля.
Компания заявила в свое оправдание, что проблема не может быть решена и люди должны попросить, чтобы все упоминания о них были удалены из модели.
В сентябре прошлого года OpenAI учредила ирландское юридическое лицо в Дублине, которое теперь подчиняется Комиссии по защите данных Ирландии (DPC). Это ограждает компанию от проблем с GDPR в отдельных странах ЕС.
Сделает ли Целевая группа ChatGPT юридически обязывающие выводы в своем следующем отчете? Сможет ли OpenAI подчиниться, даже если захочет?
В своем нынешнем виде ChatGPT и другие модели, возможно, никогда не смогут полностью соответствовать правилам конфиденциальности, которые были написаны до появления ИИ.