En ny studie avdekker kompleksiteten i GDPRs "rett til å bli glemt" (RTBF) i forbindelse med kunstig intelligens.
Retten til sletting, også kjent som retten til å slette, gir enkeltpersoner rett til å kreve at teknologibedrifter sletter personopplysningene deres permanent. Når det gjelder store språkmodeller (LLM-er) og AI-chatboter, finnes det imidlertid ingen enkel måte å reversere modellopplæringen på for å fjerne spesifikke data.
Retten til å bli glemt strekker seg lenger enn Europas GDPR. Tilsvarende lovgivning finnes i Canada (CCPA), Japan (APPI) og flere andre land. Opprinnelig var RTBF-prosedyrene først og fremst utformet for søkemotorer, noe som gjorde det relativt enkelt for selskaper som Google og Microsoft å finne og fjerne spesifikke data fra nettindeksene sine.
Forskere fra Data61 Business Unit, en avdeling i Australias National Science Agency som spesialiserer seg på AI, robotikk og cybersikkerhet, utforsket RTBF for AI i en fersk undersøkelse.
Målet var å undersøke om og hvordan RTBF kan fungere i en ny æra med AI-modeller som er opplært på store mengder data hentet fra internett. Disse dataene inneholder navn og sannsynligvis annen personlig identifiserbar informasjon (PII).
I noen tilfeller kan AI-er sende ut feilaktig eller til og med injurierende informasjon om personer. De siste månedene har OpenAI vært involvert i flere injuriesaker, med påstand om at en mann har begått bedrageri og en annen seksuelle overgrep, noe som ikke stemmer i noen av tilfellene.
I alle disse situasjonene bør det være et absolutt minimum å slette dataene som påfører anklagene.
Men som forskerne påpeker, er maskinlæringsalgoritmer (ML) ikke like enkle som søkemotorer.
De fremhever at LLM-er lagrer og behandler informasjon "på en helt annen måte" enn den indekseringsmetoden som brukes av søkemotorer.
Og hvordan vet du i det hele tatt om personopplysningene dine finnes i modellen? Ifølge forskerne kan brukerne bare få kunnskap om personopplysningene sine i LLM-er "enten ved å inspisere det opprinnelige treningsdatasettet eller kanskje ved å spørre modellen". Det var på sistnevnte måte Mark Walters fra Georgia i USA oppdaget at navnet hans var knyttet til svindel i noen av ChatGPTs resultater.
ChatGPT sa om Walters: "Mark Walters ('Walters') er en person som er bosatt i Georgia ... Walters har brutt disse pliktene og ansvaret ved blant annet å underslå og underslå SAFs midler og eiendeler til egen fordel, og ved å manipulere SAFs regnskaper og kontoutskrifter for å skjule sine aktiviteter."
Selv om AI-tjenester utfordrer retten til å bli glemt, betyr ikke det at de er fritatt fra å respektere personvernrettighetene.
Forskerne foreslår ulike strategier for å eliminere data fra AI-treningsmodeller, blant annet SISA-teknikken for "maskinavlæring", induktiv grafavlæring og tilnærmelsesvis datasletting.
Disse metodene kan gjøre det mulig for AI-utviklere å undersøke datasettene sine på en pålitelig måte og fjerne spesifikke data for å opprettholde RTBF.
Kan du fjerne dataene dine fra AI-modeller som ChatGPT?
OpenAI har innført prosedyrer som gjør det mulig for enkeltpersoner å be om sletting av personopplysninger i AI-modeller og reservere seg mot fremtidig bruk av data til opplæring av AI.
Denne artikkelen dekker ulike aspekter av OpenAIs personvernpolicy, inkludert retten til sletting, som kan kreves gjennom dette skjemaet. Den spesifikke håndteringen av disse forespørslene er fortsatt uklar, og det finnes lite dokumentasjon på at folk har fått medhold i sine RTBF-krav.
I tillegg kan brukerne be om tilgang til data (DSAR) for å utøve GDPR-garanterte rettigheter, for eksempel korrigering, begrensning eller overføring av data.
OpenAI bemerket imidlertid at det for øyeblikket ikke er mulig å korrigere unøyaktige data generert av modellene, så sletting vil sannsynligvis være løsningen.
Til tross for disse mekanismene advarte OpenAI om at de kunne komme til å avslå eller bare delvis imøtekomme forespørsler basert på juridiske begrensninger og avveininger mellom personvern og ytringsfrihet.
OpenAI tilbyr også en opt-out-mulighet for brukere som ikke ønsker at dataene deres skal brukes til AI-trening, via ChatGPT-kontoinnstillingene.
OpenAI oppgir følgende e-postadresse for korrespondanse om saken: [email protected].
ChatGPT er selvfølgelig ikke den eneste AI-en som er trent på åpne internettdata. Alle som ønsker å fjerne personopplysningene sine fra alle de store offentlige AI-chatbotene, må kontakte hver enkelt utvikler separat.
Realiteten er at de fleste data som publiseres på internett, er tilgjengelige for AI-selskaper, og det er svært utfordrende å fjerne data fra modeller.