Gruppo europeo di difesa della privacy noyb fa causa a OpenAI perché ChatGPT genera ripetutamente informazioni imprecise sulle persone e non vuole porvi rimedio.
Nonostante i suoi progressi, ChatGPT soffre ancora della tendenza a allucinare quando non conosce la risposta a una domanda.
Il personaggio pubblico senza nome che noyb rappresenta si è sentito leso quando ChatGPT hanno ripetutamente sbagliato la loro data di nascita. Quando gli veniva richiesta, il modello si limitava a inventare una data invece di dire che non aveva l'informazione.
A qualcuno sembrerà banale, ma l'inganno sulle informazioni personali può avere gravi conseguenze, ed è per questo che in Europa è considerato un grosso problema. GDPR Le norme stabiliscono che le informazioni pubblicate sulle persone devono essere accurate.
Se le informazioni disponibili al pubblico sono inesatte, un individuo ha il diritto di chiedere che vengano corrette o cancellate. Ha inoltre il diritto di sapere da dove sono state raccolte le sue informazioni e dove e come sono conservate.
OpenAI dice di non poter essere d'aiuto in questo senso. Non può (o non vuole) dire che cosa dati di formazione utilizzato per raccogliere informazioni sulla persona e dice che non può fermarsi ChatGPT dal fare dichiarazioni di fatto inesatte sulla persona o su altri.
L'azienda ha dichiarato di poter filtrare le richieste relative alla persona, ma non senza bloccare tutte le risposte ad essa relative. OpenAI afferma che "l'accuratezza dei fatti nei modelli linguistici di grandi dimensioni rimane un'area di ricerca attiva".
In altre parole, sanno che c'è un problema ma non sanno come risolverlo.
🚨 noyb ha presentato una denuncia contro la ChatGPT creatore OpenAI
OpenAI ammette apertamente di non essere in grado di correggere le informazioni false sulle persone in ChatGPT. L'azienda non può nemmeno dire da dove provengono i dati.
Leggete tutto qui 👇https://t.co/gvn9CnGKOb
- noyb (@NOYBeu) 29 aprile 2024
Nella sua presentazione all'autorità austriaca per la protezione dei dati (DSB), noyb dice OpenAI "ha dichiarato che non c'è modo di prevenire la sua
i sistemi di visualizzazione della data di nascita imprecisa dell'interessato, se l'utente richiede questa informazione".
noybIl testo, che sta per "none of your business", afferma che "la semplice creazione di dati sulle persone non è un'opzione", e che "il fatto che i dati non siano stati raccolti non è un problema". OpenAILa risposta dell'azienda al problema non è sufficiente.
Maartje de Graaf, avvocato specializzato in protezione dei dati personali di noyb ha dichiarato: "L'obbligo di soddisfare le richieste di accesso si applica a tutte le aziende. È chiaramente possibile tenere un registro dei dati di formazione che sono stati utilizzati, almeno per avere un'idea delle fonti di informazione. Sembra che ad ogni 'innovazione', un altro gruppo di aziende pensi che i suoi prodotti non debbano essere conformi alla legge".
OpenAI Il problema è che la causa è stata intentata da un'azienda, ma il problema è che ChatGPT ha con l'inventare informazioni false è un problema che hanno anche altri modelli.
Finché i modelli di intelligenza artificiale non impareranno a dire "non lo so" e i loro creatori non saranno aperti sui dati di addestramento, problemi come questo continueranno a verificarsi.
Gli utenti europei dovranno decidere se l'utilità di uno strumento come ChatGPT è più o meno prezioso dei diritti sanciti dal GDPR.
Per ora non possono avere entrambe le cose.