Europeisk interesseorganisasjon for personvern noyb saksøker OpenAI fordi ChatGPT genererer gjentatte ganger feilaktig informasjon om folk og vil ikke rette opp i det.
Til tross for fremskrittene, ChatGPT lider fortsatt av en tendens til å hallusinere når den ikke vet svaret på et spørsmål.
Den ikke navngitte offentlige personen som noyb representerer følte seg krenket da ChatGPT gjentatte ganger feil fødselsdato. Når modellen ble bedt om det, fant den bare på en dato i stedet for å si at den ikke hadde informasjonen.
Det kan høres trivielt ut for noen, men villedende personopplysninger kan få alvorlige konsekvenser, og det er derfor det anses som en alvorlig sak i Europa. GDPR reglene sier at offentliggjorte opplysninger om enkeltpersoner må være korrekte.
Hvis offentlig tilgjengelig informasjon er unøyaktig, har den enkelte rett til å be om at den blir rettet eller slettet. De har også rett til å få vite hvor opplysningene er hentet fra, og hvor og hvordan de er lagret.
OpenAI sier at den ikke kan hjelpe med noe av det. Den kan ikke (eller vil ikke) si hva opplæringsdata den brukes til å samle informasjon om personen og sier at den ikke kan stoppe ChatGPT fra å komme med faktafeilaktige uttalelser om personen eller andre.
Selskapet sa at det kunne filtrere forespørsler om personen, men ikke uten å blokkere alle svar relatert til dem. OpenAI sier at "faktanøyaktighet i store språkmodeller fortsatt er et område det forskes aktivt på".
De vet med andre ord at det er et problem, men de er ikke sikre på hvordan de skal løse det.
🚨 noyb har levert inn en klage mot ChatGPT skaper OpenAI
OpenAI innrømmer åpent at de ikke er i stand til å korrigere falsk informasjon om personer på ChatGPT. Selskapet kan ikke engang si hvor dataene kommer fra.
Les alt om det her 👇https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29. april 2024
I sin søknad til det østerrikske datatilsynet (DSB), noyb sier OpenAI "uttalte at det ikke finnes noen måte å forhindre
systemer fra å vise den registrertes unøyaktige fødselsdato i utdataene, hvis brukeren ber om denne informasjonen."
noybsom står for "none of your business", sier at "Det er ikke et alternativ å bare dikte opp data om enkeltpersoner", og at OpenAI's svar på problemet er ikke godt nok.
Maartje de Graaf, advokat med ansvar for personvern i noyb sa: "Plikten til å etterkomme innsynsbegjæringer gjelder for alle selskaper. Det er helt klart mulig å føre register over opplæringsdata som ble brukt, og i det minste ha en idé om informasjonskildene. Det ser ut til at for hver "innovasjon" er det en ny gruppe selskaper som mener at produktene deres ikke trenger å være i samsvar med loven."
OpenAI kan være målet for dette søksmålet, men problemet ChatGPT har med å dikte opp falsk informasjon, er et problem andre modeller også har.
Inntil AI-modeller kan lære seg å si "jeg vet ikke", og skaperne av dem kan være åpne om treningsdataene sine, vil slike problemer fortsette å oppstå.
Europeiske brukere må avgjøre om nytten av et verktøy som ChatGPT er mer eller mindre verdifulle enn rettighetene deres som er nedfelt i GDPR.
Foreløpig kan de ikke få begge deler.