Europese privacy-organisatie noyb klaagt OpenAI omdat ChatGPT genereert herhaaldelijk onjuiste informatie over mensen en lost dit niet op.
Ondanks de vooruitgang, ChatGPT heeft nog steeds de neiging om hallucineren wanneer het het antwoord op een vraag niet weet.
De naamloze publieke figuur die noyb vertegenwoordigt voelde zich gekrenkt toen ChatGPT hadden herhaaldelijk hun geboortedatum verkeerd. Wanneer het model hierom werd gevraagd, verzon het gewoon een datum in plaats van te zeggen dat het de informatie niet had.
Voor sommigen klinkt het misschien triviaal, maar het misleiden van persoonlijke informatie kan ernstige gevolgen hebben. GDPR Volgens de regels moet gepubliceerde informatie over personen nauwkeurig zijn.
Als openbaar beschikbare informatie onnauwkeurig is, heeft een persoon het recht om te vragen dat deze wordt gecorrigeerd of verwijderd. Ze hebben ook het recht om te weten waar hun informatie vandaan komt en waar en hoe deze wordt opgeslagen.
OpenAI zegt dat het daar niet mee kan helpen. Het kan (of wil) niet zeggen wat trainingsgegevens het gebruikt om informatie over de persoon te verzamelen en zegt dat het niet kan stoppen ChatGPT van het doen van feitelijk onjuiste uitspraken over de persoon of anderen.
Het bedrijf zei dat het verzoeken over de persoon kon filteren, maar niet zonder alle reacties over de persoon te blokkeren. OpenAI zegt dat, "feitelijke nauwkeurigheid in grote taalmodellen een gebied van actief onderzoek blijft".
Met andere woorden, ze weten dat het een probleem is, maar ze weten niet zeker hoe ze het moeten oplossen.
🚨 noyb heeft een klacht ingediend tegen de ChatGPT maker OpenAI
OpenAI geeft openlijk toe dat het niet in staat is om onjuiste informatie over mensen op ChatGPT. Het bedrijf kan niet eens zeggen waar de gegevens vandaan komen.
Lees er hier alles over 👇https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29 april 2024
In haar aanvraag bij de Oostenrijkse gegevensbeschermingsautoriteit (DSB), noyb zegt OpenAI "verklaarde dat er geen manier is om zijn
systemen om de onjuiste geboortedatum van de betrokkene in de uitvoer weer te geven als de gebruiker om deze informatie vraagt."
noyb, wat staat voor "gaat je niets aan", zegt dat "het simpelweg verzinnen van gegevens over individuen geen optie is" en dat OpenAIis niet goed genoeg.
Maartje de Graaf, advocaat gegevensbescherming bij noyb zei: "De verplichting om te voldoen aan verzoeken om toegang geldt voor alle bedrijven. Het is duidelijk mogelijk om een administratie bij te houden van de gebruikte trainingsgegevens om op zijn minst een idee te hebben van de informatiebronnen. Het lijkt erop dat met elke 'innovatie' een andere groep bedrijven denkt dat hun producten niet aan de wet hoeven te voldoen."
OpenAI is misschien het doelwit van deze rechtszaak, maar het probleem ChatGPT heeft met het verzinnen van valse informatie is een probleem dat andere modellen ook hebben.
Totdat AI-modellen kunnen leren om "ik weet het niet" te zeggen en hun makers open kunnen zijn over hun trainingsgegevens, zullen dit soort problemen zich blijven voordoen.
Europese gebruikers zullen moeten beslissen of het nut van een tool als ChatGPT meer of minder waardevol is dan hun rechten die zijn vastgelegd in de GDPR.
Voorlopig kunnen ze niet allebei hebben.