OpenAI saksøkes for falsk informasjon, men sier at problemet ikke kan løses

4. mai 2024

  • Den europeiske personvernorganisasjonen noyb saksøker OpenAI på grunn av unøyaktig ChatGPT-informasjon
  • noyb representerer en offentlig person som har klaget på at ChatGPT feilaktig har oppgitt fødselsdato
  • OpenAI sier at de ikke kan fikse unøyaktig ChatGPT-informasjon for å overholde GDPR-reglene

Europeisk interesseorganisasjon for personvern noyb saksøker OpenAI fordi ChatGPT genererer gjentatte ganger feilaktig informasjon om folk og vil ikke rette opp i det.

Til tross for fremskrittene, ChatGPT lider fortsatt av en tendens til å hallusinere når den ikke vet svaret på et spørsmål.

Den ikke navngitte offentlige personen som noyb representerer følte seg krenket da ChatGPT gjentatte ganger feil fødselsdato. Når modellen ble bedt om det, fant den bare på en dato i stedet for å si at den ikke hadde informasjonen.

Det kan høres trivielt ut for noen, men villedende personopplysninger kan få alvorlige konsekvenser, og det er derfor det anses som en alvorlig sak i Europa. GDPR reglene sier at offentliggjorte opplysninger om enkeltpersoner må være korrekte.

Hvis offentlig tilgjengelig informasjon er unøyaktig, har den enkelte rett til å be om at den blir rettet eller slettet. De har også rett til å få vite hvor opplysningene er hentet fra, og hvor og hvordan de er lagret.

OpenAI sier at den ikke kan hjelpe med noe av det. Den kan ikke (eller vil ikke) si hva opplæringsdata den brukes til å samle informasjon om personen og sier at den ikke kan stoppe ChatGPT fra å komme med faktafeilaktige uttalelser om personen eller andre.

Selskapet sa at det kunne filtrere forespørsler om personen, men ikke uten å blokkere alle svar relatert til dem. OpenAI sier at "faktanøyaktighet i store språkmodeller fortsatt er et område det forskes aktivt på".

De vet med andre ord at det er et problem, men de er ikke sikre på hvordan de skal løse det.

I sin søknad til det østerrikske datatilsynet (DSB), noyb sier OpenAI "uttalte at det ikke finnes noen måte å forhindre
systemer fra å vise den registrertes unøyaktige fødselsdato i utdataene, hvis brukeren ber om denne informasjonen."

noybsom står for "none of your business", sier at "Det er ikke et alternativ å bare dikte opp data om enkeltpersoner", og at OpenAI's svar på problemet er ikke godt nok.

Maartje de Graaf, advokat med ansvar for personvern i noyb sa: "Plikten til å etterkomme innsynsbegjæringer gjelder for alle selskaper. Det er helt klart mulig å føre register over opplæringsdata som ble brukt, og i det minste ha en idé om informasjonskildene. Det ser ut til at for hver "innovasjon" er det en ny gruppe selskaper som mener at produktene deres ikke trenger å være i samsvar med loven."

OpenAI kan være målet for dette søksmålet, men problemet ChatGPT har med å dikte opp falsk informasjon, er et problem andre modeller også har.

Inntil AI-modeller kan lære seg å si "jeg vet ikke", og skaperne av dem kan være åpne om treningsdataene sine, vil slike problemer fortsette å oppstå.

Europeiske brukere må avgjøre om nytten av et verktøy som ChatGPT er mer eller mindre verdifulle enn rettighetene deres som er nedfelt i GDPR.

Foreløpig kan de ikke få begge deler.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser