Grupo europeo de defensa de la privacidad noyb está demandando a OpenAI porque ChatGPT genera repetidamente información inexacta sobre las personas y no lo arregla.
A pesar de sus avances, ChatGPT todavía sufre una tendencia a alucinar cuando no sabe la respuesta a una pregunta.
La figura pública anónima que noyb está representando se sintió agraviado cuando ChatGPT se equivocaron repetidamente de fecha de nacimiento. Cuando se le pedía, la modelo se inventaba una fecha en lugar de decir que no tenía la información.
Puede parecer trivial para algunos, pero falsear información personal puede tener graves consecuencias, por eso se considera un gran problema en Europa. GDPR Las normas establecen que la información publicada sobre las personas debe ser exacta.
Si la información a disposición del público es inexacta, la persona tiene derecho a solicitar que se corrija o suprima. También tiene derecho a saber de dónde se ha obtenido su información y dónde y cómo se almacena.
OpenAI dice que no puede ayudar en nada de eso. No puede (o no quiere) decir qué datos de entrenamiento que utiliza para recopilar información sobre la persona y dice que no puede dejar de ChatGPT de hacer declaraciones inexactas sobre la persona o sobre otros.
La empresa dijo que podía filtrar las solicitudes sobre la persona, pero no sin bloquear todas las respuestas relacionadas con ella. OpenAI afirma que "la precisión factual en grandes modelos lingüísticos sigue siendo un área de investigación activa".
En otras palabras, saben que es un problema pero no están seguros de cómo solucionarlo.
🚨 noyb ha presentado una denuncia contra el ChatGPT creador OpenAI
OpenAI admite abiertamente que es incapaz de corregir la información falsa sobre las personas en ChatGPT. La empresa ni siquiera puede decir de dónde proceden los datos.
Léelo todo aquí 👇https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29 de abril de 2024
En su presentación ante la autoridad austriaca de protección de datos (DSB), noyb dice OpenAI "declaró que no hay forma de evitar su
que los sistemas no muestren en la salida la fecha de nacimiento inexacta del interesado, si el usuario solicita este dato."
noybque significa "no es asunto suyo", dice que "inventarse datos sobre las personas no es una opción", y que OpenAILa respuesta de la Comisión no es suficiente.
Maartje de Graaf, abogada de protección de datos de noyb dijo: "La obligación de cumplir con las solicitudes de acceso se aplica a todas las empresas. Está claro que es posible llevar un registro de los datos de formación que se utilizaron para, al menos, tener una idea de las fuentes de información. Parece que con cada "innovación", otro grupo de empresas piensa que sus productos no tienen que cumplir la ley".
OpenAI puede ser el objetivo de esta demanda, pero el problema ChatGPT tiene con inventarse información falsa es un problema que también tienen otros modelos.
Mientras los modelos de IA no aprendan a decir "no lo sé" y sus creadores no sean abiertos sobre sus datos de entrenamiento, este tipo de problemas seguirán ocurriendo.
Los usuarios europeos tendrán que decidir si la utilidad de una herramienta como ChatGPT es más o menos valioso que sus derechos consagrados en el GDPR.
Por ahora, no pueden tener ambas cosas.