Un nuovo studio rivela le complessità del "diritto all'oblio" (RTBF) del GDPR nel contesto dell'IA.
Conosciuto anche come Diritto alla cancellazione, questo diritto dà alle persone il potere di chiedere alle aziende tecnologiche di cancellare definitivamente i loro dati personali. Tuttavia, nel contesto dei grandi modelli linguistici (LLM) e dei chatbot di intelligenza artificiale, non esiste un modo semplice per decodificare l'addestramento del modello per rimuovere dati specifici.
Il diritto all'oblio si estende oltre il GDPR europeo. Una legislazione analoga si trova in Canada (CCPA), Giappone (APPI) e in molti altri Paesi. In origine, le procedure RTBF erano state concepite principalmente per i motori di ricerca, rendendo relativamente semplice per aziende come Google e Microsoft individuare ed eliminare dati specifici dai loro indici web.
I ricercatori della Data61 Business Unit, un ramo dell'Agenzia scientifica nazionale australiana specializzato in IA, robotica e sicurezza informatica, hanno esplorato la RTBF per l'IA in un progetto di ricerca. studio recente.
L'obiettivo era quello di verificare se e come la RTBF potesse funzionare in una nuova era di modelli di intelligenza artificiale addestrati su grandi quantità di dati estratti da Internet. Questi dati contengono nomi e probabilmente altre informazioni di identificazione personale (PII).
In alcuni casi, le IA possono fornire informazioni errate o addirittura diffamatorie sulle persone. Negli ultimi mesi, OpenAI è stato coinvolto in casi di diffamazione multiplacon la sua uscita che afferma che un uomo ha commesso una frode e un altro una violenza sessuale, il che non è vero in nessuno dei due casi.
Per ognuna di queste situazioni, l'eliminazione dei dati che hanno causato le accuse dovrebbe essere il minimo indispensabile.
Tuttavia, come sottolineato dai ricercatori, gli algoritmi di apprendimento automatico (ML) non sono così semplici come i motori di ricerca.
Essi sottolineano che i LLM memorizzano ed elaborano le informazioni "in modo completamente diverso" rispetto all'approccio di indicizzazione utilizzato dai motori di ricerca.
E come si fa a sapere se i propri dati personali sono contenuti nel modello? Secondo i ricercatori, gli utenti possono acquisire informazioni sui propri dati personali solo all'interno degli LLM "ispezionando il set di dati di addestramento originale o forse sollecitando il modello". Quest'ultimo è il modo in cui Mark Walters, della Georgia, USA, ha scoperto che il suo nome è collegato a una frode in alcuni risultati di ChatGPT.
ChatGPT ha detto di Walters: "Mark Walters ('Walters') è un individuo che risiede in Georgia... Walters ha violato questi doveri e responsabilità, tra l'altro, appropriandosi indebitamente dei fondi e dei beni di SAF a proprio vantaggio, e manipolando i registri finanziari e gli estratti conto di SAF per nascondere le sue attività".
Se i servizi di intelligenza artificiale pongono delle sfide al diritto all'oblio, ciò non significa che siano esenti dal rispetto dei diritti alla privacy.
I ricercatori propongono varie strategie per eliminare i dati dai modelli di addestramento dell'IA, tra cui la tecnica SISA di "machine unlearning", l'Inductive Graph Unlearning e l'Approximate Data Deletion.
Questi metodi potrebbero consentire agli sviluppatori di IA di analizzare in modo affidabile i loro set di dati e di rimuovere dati specifici per rispettare l'RTBF.
Potete rimuovere i vostri dati dai modelli di intelligenza artificiale come ChatGPT?
OpenAI ha introdotto procedure che consentono alle persone di richiedere la cancellazione dei dati personali nei modelli di IA e di rinunciare all'uso futuro dei dati per l'addestramento dell'IA.
Questo articolo copre vari aspetti della politica sulla privacy di OpenAI, tra cui il diritto alla cancellazione, che può essere richiesto tramite questo modulo. La gestione specifica di queste richieste rimane nebulosa e ci sono poche prove di persone che hanno avviato richieste di risarcimento RTBF con successo.
Inoltre, gli utenti possono presentare una richiesta di accesso ai dati (DSAR) per esercitare i diritti previsti dal GDPR, come la correzione, la limitazione o il trasferimento dei dati.
Tuttavia, OpenAI ha fatto notare che correggere i dati imprecisi generati dai suoi modelli non è attualmente fattibile, quindi la soluzione sarebbe probabilmente la cancellazione.
Nonostante questi meccanismi, OpenAI ha avvertito che potrebbe negare o dare seguito solo parzialmente alle richieste sulla base di vincoli legali e bilanciando le richieste di privacy con la libertà di espressione.
OpenAI offre anche un opt-out per gli utenti che non vogliono che i loro dati vengano utilizzati per l'addestramento dell'IA tramite le impostazioni dell'account ChatGPT.
OpenAI fornisce il seguente indirizzo e-mail per la corrispondenza in merito: [email protected].
Naturalmente, ChatGPT non è l'unica IA addestrata su dati Internet aperti. Chiunque desideri rimuovere le proprie informazioni personali da tutti i principali chatbot di IA pubblici deve contattare ogni sviluppatore separatamente.
La realtà è che la maggior parte dei dati pubblicati su Internet è in palio per le aziende di IA e la rimozione dei dati dai modelli è estremamente impegnativa.