L'autorità italiana per la protezione dei dati, il Garante, ha espresso il timore che ChatGPT di OpenAI possa violare il Regolamento generale sulla protezione dei dati (GDPR) dell'Unione europea.
Ciò deriva da un'indagine avviata l'anno scorso a seguito di una divieto temporaneo di ChatGPT in Italia. L'indagine ha evidenziato potenziali problemi legati al trattamento dei dati personali e alle procedure di verifica dell'età.
L'indagine dell'Autorità italiana per la protezione dei dati personali è stata motivata da diversi fattori, tra cui gli incidenti in cui sono stati inavvertitamente esposti i messaggi ChatGPT e i dati di pagamento e la mancanza di controllo dell'età dei minori.
Inoltre, l'autorità ha messo in dubbio la legalità delle pratiche di raccolta dati di OpenAI utilizzate per addestrare ChatGPT e ha lanciato l'allarme sulla generazione occasionale di informazioni imprecise sulle persone da parte dell'IA.
Le aziende di IA sono state sottoposte a un intenso esame per le loro pratiche di scraping dei dati, con numerose cause legali per il diritto d'autore attualmente in corso.
Ci sono anche diversi esempi di "allucinazioni" dell'IA che diffamano le persone, a volte incriminandole accidentalmente per reati come l'appropriazione indebita o le molestie sessuali. Cause per diffamazione sono stati intentati contro gli sviluppatori di IA, ma al momento non sono conclusivi.
In risposta a queste accuse, OpenAI ha affermato il proprio impegno a rispettare il GDPR e altre leggi sulla privacy, sottolineando la propria dedizione alla protezione dei dati e alla privacy.
La dichiarazione di OpenAI ha inoltre evidenziato i suoi sforzi per ridurre al minimo l'inclusione di dati personali nei suoi processi di formazione e la progettazione del suo sistema per rifiutare le richieste di informazioni private o sensibili, affermando: "Crediamo che le nostre pratiche siano in linea con il GDPR e con le altre leggi sulla privacy, e adottiamo ulteriori misure per proteggere i dati e la privacy delle persone".
Il controllo globale degli investimenti in IA
Nel frattempo, la Commissione federale per il commercio (FTC) degli Stati Uniti, sotto la presidenza di Lina Khan, sta indagando sulla relazioni tra le principali startup di IAcome OpenAI, e colossi tecnologici come Microsoft, Amazon e Google.
Questa settimana, diversi gruppi e organizzazioni per i diritti civili, come la Mozilla Foundation, ha messo in discussione il rapporto tra Microsoft e OpenAIincoraggiando la Commissione europea a indagare su di loro per violazione delle norme antitrust.
Le indagini della FTC mirano anche a valutare se queste partnership concedono un'influenza indebita o un accesso privilegiato alle imprese più grandi, minando la concorrenza leale.
Man mano che queste tecnologie diventano sempre più integrate in vari aspetti della società, è evidente la necessità di un quadro normativo che bilanci l'innovazione con le considerazioni etiche, la protezione della privacy e l'equità del mercato. La questione rimane imminente.
Gli esiti di queste indagini e di questi sforzi normativi costituiranno probabilmente dei precedenti importanti per la governance delle tecnologie dell'IA in futuro, modellando la traiettoria dello sviluppo dell'IA e la sua integrazione nell'economia digitale globale.