Europæisk interesseorganisation for privatlivets fred noyb sagsøger OpenAI fordi ChatGPT genererer gentagne gange unøjagtige oplysninger om folk og vil ikke rette op på det.
På trods af fremskridtene, ChatGPT lider stadig af en tendens til at hallucinere når den ikke kender svaret på et spørgsmål.
Den unavngivne offentlige person, som noyb repræsenterer følte sig forurettet, da ChatGPT fik gentagne gange deres fødselsdato forkert. Når modellen blev bedt om det, fandt den simpelthen på en dato i stedet for at sige, at den ikke havde oplysningerne.
Det lyder måske banalt for nogle, men vildledende personlige oplysninger kan have alvorlige konsekvenser, og derfor betragtes det som en stor sag i Europa. GDPR Reglerne siger, at offentliggjorte oplysninger om enkeltpersoner skal være korrekte.
Hvis offentligt tilgængelige oplysninger er unøjagtige, har en person ret til at anmode om, at de bliver rettet eller slettet. De har også ret til at vide, hvor deres oplysninger er indsamlet fra, og hvor og hvordan de er gemt.
OpenAI siger, at den ikke kan hjælpe med noget af det. Den kan ikke (eller vil ikke) sige, hvad træningsdata den bruges til at indsamle oplysninger om personen og siger, at den ikke kan stoppe ChatGPT fra at komme med faktuelt ukorrekte udsagn om personen eller andre.
Virksomheden sagde, at den kunne filtrere anmodninger om personen, men ikke uden at blokere alle svar relateret til dem. OpenAI siger, at "faktuel nøjagtighed i store sprogmodeller stadig er et område med aktiv forskning".
Med andre ord ved de, at det er et problem, men de er ikke sikre på, hvordan de skal løse det.
🚨 noyb har indgivet en klage over ChatGPT skaber OpenAI
OpenAI indrømmer åbent, at den ikke er i stand til at korrigere falske oplysninger om folk på ChatGPT. Virksomheden kan ikke engang sige, hvor dataene kommer fra.
Læs alt om det her 👇https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29. april 2024
I sin ansøgning til den østrigske databeskyttelsesmyndighed (DSB), noyb siger OpenAI "erklærede, at der ikke er nogen måde at forhindre det på
systemer fra at vise den registreredes ukorrekte fødselsdato i outputtet, hvis brugeren beder om denne oplysning."
noybsom står for "none of your business", siger, at "det ikke er en mulighed blot at opfinde data om enkeltpersoner", og at OpenAI's svar på spørgsmålet er ikke godt nok.
Maartje de Graaf, databeskyttelsesadvokat hos noyb sagde: "Forpligtelsen til at efterkomme anmodninger om adgang gælder for alle virksomheder. Det er helt klart muligt at føre register over træningsdata, der blev brugt, og i det mindste have en idé om informationskilderne. Det ser ud til, at der for hver 'innovation' er en anden gruppe af virksomheder, der mener, at deres produkter ikke behøver at overholde loven."
OpenAI kan være målet for dette søgsmål, men problemet ChatGPT har med at opfinde falske oplysninger, er et problem, som andre modeller også har.
Indtil AI-modeller kan lære at sige "jeg ved det ikke", og deres skabere kan være åbne om deres træningsdata, vil problemer som dette blive ved med at opstå.
Europæiske brugere bliver nødt til at beslutte, om nytten af et værktøj som ChatGPT er mere eller mindre værdifuld end deres rettigheder, der er nedfældet i GDPR.
Lige nu kan de ikke få begge dele.