Groupe européen de défense de la vie privée noyb poursuit OpenAI parce que ChatGPT génère de manière répétée des informations inexactes sur les personnes et ne veut pas y remédier.
Malgré ses avancées, ChatGPT souffre encore d'une tendance à halluciner lorsqu'il ne connaît pas la réponse à une question.
La personnalité anonyme qui noyb représente s'est sentie lésée lorsque ChatGPT se sont trompés à plusieurs reprises sur leur date de naissance. Lorsqu'on lui demandait de le faire, le modèle inventait simplement une date au lieu de dire qu'il ne disposait pas de l'information.
Cela peut paraître anodin pour certains, mais le fait d'induire en erreur des informations personnelles peut avoir des conséquences graves, c'est pourquoi cela est considéré comme un problème important en Europe. GDPR Les règles stipulent que les informations publiées sur les personnes doivent être exactes.
Si des informations accessibles au public sont inexactes, une personne a le droit de demander qu'elles soient corrigées ou supprimées. Elle a également le droit de savoir d'où proviennent ses informations et où et comment elles sont stockées.
OpenAI dit qu'il ne peut rien faire de tout cela. Il ne peut pas (ou ne veut pas) dire ce qu'il faut faire. données de formation Il a été utilisé pour recueillir des informations sur la personne et affirme qu'il ne peut pas s'arrêter. ChatGPT de faire des déclarations inexactes sur la personne ou sur d'autres personnes.
L'entreprise a indiqué qu'elle pouvait filtrer les demandes concernant la personne, mais pas sans bloquer toutes les réponses qui s'y rapportent. OpenAI indique que "l'exactitude des faits dans les grands modèles linguistiques reste un domaine de recherche actif".
En d'autres termes, ils savent qu'il y a un problème mais ne savent pas comment le résoudre.
🚨 noyb a déposé une plainte contre les ChatGPT créateur OpenAI
OpenAI admet ouvertement qu'elle n'est pas en mesure de corriger les fausses informations concernant les personnes inscrites sur les sites Internet de l'Union européenne. ChatGPT. L'entreprise ne peut même pas dire d'où proviennent les données.
Tout savoir ici 👇https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29 avril 2024
Dans sa déclaration à l'autorité autrichienne de protection des données (DSB), noyb dit OpenAI "a déclaré qu'il n'y a aucun moyen de l'empêcher.
de ne pas afficher la date de naissance inexacte de la personne concernée dans les résultats, si l'utilisateur demande cet élément d'information".
noybqui signifie "none of your business", déclare que "la simple création de données sur des individus n'est pas une option" et que "la création de données sur des individus n'est pas une option", et que "la création de données sur des individus est une option". OpenAILa réponse de la Commission à cette question n'est pas suffisante.
Maartje de Graaf, avocate spécialisée dans la protection des données à noyb a déclaré : "L'obligation de se conformer aux demandes d'accès s'applique à toutes les entreprises. Il est clairement possible de conserver des enregistrements des données de formation qui ont été utilisées, ou au moins d'avoir une idée des sources d'information. Il semble qu'à chaque 'innovation', un autre groupe d'entreprises pense que ses produits ne doivent pas être conformes à la loi".
OpenAI est peut-être la cible de cette action en justice, mais le problème est le suivant ChatGPT Le problème de la création de fausses informations est un problème que d'autres modèles rencontrent également.
Tant que les modèles d'IA n'apprendront pas à dire "je ne sais pas" et que leurs créateurs ne seront pas ouverts sur leurs données d'apprentissage, des problèmes de ce type continueront à se produire.
Les utilisateurs européens devront décider si l'utilité d'un outil tel que le ChatGPT a plus ou moins de valeur que leurs droits inscrits dans le GDPR.
Pour l'instant, ils ne peuvent pas avoir les deux.