Hoe werkt het "recht om vergeten te worden" (RTBF) in de context van AI?

15 juli 2023

GDPR-naleving

Een nieuwe studie onthult de complexiteit van het "recht om vergeten te worden" (RTBF) van de GDPR in de context van AI.

Dit staat ook bekend als het recht op wissen en geeft individuen de macht om van techbedrijven te eisen dat ze hun persoonlijke gegevens permanent verwijderen. Maar in de context van grote taalmodellen (LLM's) en AI-chatbots is er geen eenvoudige manier om modeltraining terug te draaien om specifieke gegevens te verwijderen. 

Het recht om vergeten te worden gaat verder dan de Europese GDPR. Vergelijkbare wetgeving is te vinden in Canada (CCPA), Japan (APPI) en verschillende andere landen. Oorspronkelijk waren RTBF-procedures vooral bedoeld voor zoekmachines, waardoor het voor bedrijven als Google en Microsoft relatief eenvoudig was om specifieke gegevens op te sporen en te verwijderen uit hun webindexen.

Onderzoekers van de Data61 Business Unit, een tak van het Australische National Science Agency die gespecialiseerd is in AI, robotica en cyberbeveiliging, onderzochten RTBF voor AI in een recente studie.

Ze wilden onderzoeken of en hoe RTBF zou kunnen functioneren in een nieuw tijdperk van AI-modellen die worden getraind op enorme hoeveelheden gegevens die van het internet worden gehaald. Deze gegevens bevatten namen en waarschijnlijk andere persoonlijk identificeerbare informatie (PII). 

In sommige gevallen kunnen AI's onjuiste of zelfs lasterlijke informatie over mensen geven. In de afgelopen maanden is OpenAI verwikkeld geweest in meervoudige smaadzakenDe uitvoer beweert dat de ene man fraude heeft gepleegd en de andere seksueel misbruik, wat in geen van beide gevallen waar is. 

Voor elk van deze situaties moet het verwijderen van de gegevens die de beschuldigingen veroorzaken een absoluut minimum zijn. 

De onderzoekers wijzen er echter op dat machine learning (ML) algoritmen niet zo eenvoudig zijn als zoekmachines.

Ze benadrukken dat LLM's informatie "op een heel andere manier" opslaan en verwerken dan de indexeringsaanpak die zoekmachines gebruiken.

En hoe weet je eigenlijk of je persoonlijke gegevens in het model zitten? Volgens de onderzoekers kunnen gebruikers alleen kennis opdoen over hun persoonlijke gegevens in LLM's "door de originele trainingsdataset te inspecteren of misschien door het model te vragen". Dit laatste is hoe Mark Walters, uit Georgia in de VS, ontdekte dat zijn naam gekoppeld is aan fraude in sommige outputs van ChatGPT. 

ChatGPT zei over Walters: "Mark Walters ('Walters') is een individu die woonachtig is in Georgia...Walters heeft deze plichten en verantwoordelijkheden geschonden door, onder andere, het verduisteren en verduisteren van SAF's fondsen en activa voor zijn eigen voordeel, en het manipuleren van SAF's financiële administratie en bankafschriften om zijn activiteiten te verbergen."

AI-diensten vormen een uitdaging voor het recht om vergeten te worden, maar dat betekent niet dat ze geen privacyrechten hoeven te respecteren. 

De onderzoekers stellen verschillende strategieën voor om gegevens uit AI-trainingsmodellen te verwijderen, waaronder de "machine unlearning" SISA-techniek, Inductive Graph Unlearning en Approximate Data Deletion. 

Met deze methoden kunnen AI-ontwikkelaars hun datasets op een betrouwbare manier onderzoeken en specifieke gegevens verwijderen om de RTBF te handhaven.

Kun je je gegevens verwijderen uit AI-modellen zoals ChatGPT?

OpenAI heeft procedures geïntroduceerd waarmee individuen de verwijdering van persoonlijke gegevens in AI-modellen kunnen aanvragen en zich kunnen afmelden voor toekomstig gebruik van gegevens voor het trainen van AI. 

Dit artikel behandelt verschillende aspecten van OpenAI's privacybeleid, waaronder het recht op wissen, dat kan worden aangevraagd via dit formulier. De specifieke behandeling van deze verzoeken blijft vaag en er is weinig bewijs dat mensen succesvolle RTBF-claims hebben ingediend. 

Daarnaast kunnen gebruikers een Data Subject Access Request (DSAR) indienen om GDPR-rechten uit te oefenen, zoals correctie, beperking of overdracht van gegevens. 

OpenAI merkte echter op dat het corrigeren van onnauwkeurige gegevens die door zijn modellen worden gegenereerd momenteel onhaalbaar is, dus verwijdering zou waarschijnlijk de oplossing zijn.

Ondanks deze mechanismen waarschuwde OpenAI dat het verzoeken zou kunnen weigeren of slechts gedeeltelijk zou kunnen afhandelen op basis van wettelijke beperkingen en het afwegen van privacy verzoeken tegen vrijheid van meningsuiting.

OpenAI biedt ook een opt-out voor gebruikers die niet willen dat hun gegevens worden gebruikt voor AI-training via de accountinstellingen van ChatGPT.

OpenAI biedt het volgende e-mailadres voor correspondentie over deze kwestie: [email protected].

Natuurlijk is ChatGPT niet de enige AI die getraind is op open internetdata. Iedereen die zijn persoonlijke gegevens wil verwijderen uit alle grote openbare AI-chatbots moet afzonderlijk contact opnemen met elke ontwikkelaar.

De realiteit is dat de meeste gegevens die op het internet worden gepubliceerd voor het grijpen liggen voor AI-bedrijven, en het verwijderen van gegevens uit modellen is een buitengewone uitdaging. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden