OpenAI demandada por información falsa pero dice que el problema no tiene arreglo

4 de mayo de 2024

  • El grupo europeo de defensa de la privacidad noyb demanda a OpenAI por información inexacta sobre ChatGPT
  • noyb representa a un personaje público que se quejó de que ChatGPT indicaba incorrectamente su fecha de nacimiento
  • OpenAI dice que no puede corregir la información inexacta de ChatGPT para cumplir las normas GDPR

Grupo europeo de defensa de la privacidad noyb está demandando a OpenAI porque ChatGPT genera repetidamente información inexacta sobre las personas y no lo arregla.

A pesar de sus avances, ChatGPT todavía sufre una tendencia a alucinar cuando no sabe la respuesta a una pregunta.

La figura pública anónima que noyb está representando se sintió agraviado cuando ChatGPT se equivocaron repetidamente de fecha de nacimiento. Cuando se le pedía, la modelo se inventaba una fecha en lugar de decir que no tenía la información.

Puede parecer trivial para algunos, pero falsear información personal puede tener graves consecuencias, por eso se considera un gran problema en Europa. GDPR Las normas establecen que la información publicada sobre las personas debe ser exacta.

Si la información a disposición del público es inexacta, la persona tiene derecho a solicitar que se corrija o suprima. También tiene derecho a saber de dónde se ha obtenido su información y dónde y cómo se almacena.

OpenAI dice que no puede ayudar en nada de eso. No puede (o no quiere) decir qué datos de entrenamiento que utiliza para recopilar información sobre la persona y dice que no puede dejar de ChatGPT de hacer declaraciones inexactas sobre la persona o sobre otros.

La empresa dijo que podía filtrar las solicitudes sobre la persona, pero no sin bloquear todas las respuestas relacionadas con ella. OpenAI afirma que "la precisión factual en grandes modelos lingüísticos sigue siendo un área de investigación activa".

En otras palabras, saben que es un problema pero no están seguros de cómo solucionarlo.

En su presentación ante la autoridad austriaca de protección de datos (DSB), noyb dice OpenAI "declaró que no hay forma de evitar su
que los sistemas no muestren en la salida la fecha de nacimiento inexacta del interesado, si el usuario solicita este dato."

noybque significa "no es asunto suyo", dice que "inventarse datos sobre las personas no es una opción", y que OpenAILa respuesta de la Comisión no es suficiente.

Maartje de Graaf, abogada de protección de datos de noyb dijo: "La obligación de cumplir con las solicitudes de acceso se aplica a todas las empresas. Está claro que es posible llevar un registro de los datos de formación que se utilizaron para, al menos, tener una idea de las fuentes de información. Parece que con cada "innovación", otro grupo de empresas piensa que sus productos no tienen que cumplir la ley".

OpenAI puede ser el objetivo de esta demanda, pero el problema ChatGPT tiene con inventarse información falsa es un problema que también tienen otros modelos.

Mientras los modelos de IA no aprendan a decir "no lo sé" y sus creadores no sean abiertos sobre sus datos de entrenamiento, este tipo de problemas seguirán ocurriendo.

Los usuarios europeos tendrán que decidir si la utilidad de una herramienta como ChatGPT es más o menos valioso que sus derechos consagrados en el GDPR.

Por ahora, no pueden tener ambas cosas.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales