OpenAI sagsøges for falsk information, men siger, at problemet ikke kan løses

4. maj 2024

  • Den europæiske privacy-gruppe noyb sagsøger OpenAI på grund af unøjagtige ChatGPT-oplysninger
  • noyb repræsenterer en offentlig person, der har klaget over, at ChatGPT har angivet deres fødselsdato forkert.
  • OpenAI siger, at de ikke kan rette unøjagtige ChatGPT-oplysninger for at overholde GDPR-reglerne

Europæisk interesseorganisation for privatlivets fred noyb sagsøger OpenAI fordi ChatGPT genererer gentagne gange unøjagtige oplysninger om folk og vil ikke rette op på det.

På trods af fremskridtene, ChatGPT lider stadig af en tendens til at hallucinere når den ikke kender svaret på et spørgsmål.

Den unavngivne offentlige person, som noyb repræsenterer følte sig forurettet, da ChatGPT fik gentagne gange deres fødselsdato forkert. Når modellen blev bedt om det, fandt den simpelthen på en dato i stedet for at sige, at den ikke havde oplysningerne.

Det lyder måske banalt for nogle, men vildledende personlige oplysninger kan have alvorlige konsekvenser, og derfor betragtes det som en stor sag i Europa. GDPR Reglerne siger, at offentliggjorte oplysninger om enkeltpersoner skal være korrekte.

Hvis offentligt tilgængelige oplysninger er unøjagtige, har en person ret til at anmode om, at de bliver rettet eller slettet. De har også ret til at vide, hvor deres oplysninger er indsamlet fra, og hvor og hvordan de er gemt.

OpenAI siger, at den ikke kan hjælpe med noget af det. Den kan ikke (eller vil ikke) sige, hvad træningsdata den bruges til at indsamle oplysninger om personen og siger, at den ikke kan stoppe ChatGPT fra at komme med faktuelt ukorrekte udsagn om personen eller andre.

Virksomheden sagde, at den kunne filtrere anmodninger om personen, men ikke uden at blokere alle svar relateret til dem. OpenAI siger, at "faktuel nøjagtighed i store sprogmodeller stadig er et område med aktiv forskning".

Med andre ord ved de, at det er et problem, men de er ikke sikre på, hvordan de skal løse det.

I sin ansøgning til den østrigske databeskyttelsesmyndighed (DSB), noyb siger OpenAI "erklærede, at der ikke er nogen måde at forhindre det på
systemer fra at vise den registreredes ukorrekte fødselsdato i outputtet, hvis brugeren beder om denne oplysning."

noybsom står for "none of your business", siger, at "det ikke er en mulighed blot at opfinde data om enkeltpersoner", og at OpenAI's svar på spørgsmålet er ikke godt nok.

Maartje de Graaf, databeskyttelsesadvokat hos noyb sagde: "Forpligtelsen til at efterkomme anmodninger om adgang gælder for alle virksomheder. Det er helt klart muligt at føre register over træningsdata, der blev brugt, og i det mindste have en idé om informationskilderne. Det ser ud til, at der for hver 'innovation' er en anden gruppe af virksomheder, der mener, at deres produkter ikke behøver at overholde loven."

OpenAI kan være målet for dette søgsmål, men problemet ChatGPT har med at opfinde falske oplysninger, er et problem, som andre modeller også har.

Indtil AI-modeller kan lære at sige "jeg ved det ikke", og deres skabere kan være åbne om deres træningsdata, vil problemer som dette blive ved med at opstå.

Europæiske brugere bliver nødt til at beslutte, om nytten af et værktøj som ChatGPT er mere eller mindre værdifuld end deres rettigheder, der er nedfældet i GDPR.

Lige nu kan de ikke få begge dele.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser