Il Parlamento europeo ha approvato la prima legislazione completa sull'IA al mondo, suscitando entusiasmo e preoccupazione.
Sono stati espressi 523 voti a favore della legge, 46 contrari e 49 astensioni. Molto probabilmente entrerà in vigore a maggio.
L'AI Act introduce un nuovo approccio alla governance dell'IA basato sul rischio. Essa classifica i sistemi di IA in base alle loro potenziali minacce e li regolamenta di conseguenza.
Il processo legislativo dell'UE è notoriamente complesso, e questo è il culmine di diversi anni di sforzi e di alcuni momenti difficili in cui alcuni Paesi hanno esitato sull'impatto della legge sulle loro economie e sulla concorrenza.
La sua traiettoria ha subito un ulteriore colpo nel giugno dello scorso anno, quando circa 150 grandi aziende europee avvertito contro perseguire regolamenti restrittivi.
L'attesa è finalmente finita. Dagli strumenti di uso quotidiano come i filtri antispam ai sistemi più complessi utilizzati nell'assistenza sanitaria e nelle forze dell'ordine, l'AI Act è estremamente completo.
Tra le sue norme più importanti, la legge vieta in modo assoluto i sistemi di intelligenza artificiale in grado di manipolare il comportamento cognitivo, il social scoring e l'identificazione biometrica non autorizzata.
C'è poi la categoria "ad alto rischio", che comprende l'IA nelle infrastrutture critiche, negli strumenti educativi, nella gestione dell'occupazione e altro ancora. Questi sistemi saranno sottoposti a rigorose valutazioni prima e dopo il lancio sul mercato. Il pubblico ha la possibilità di segnalare questi sistemi di IA alle autorità competenti.
L'IA generativa, come ChatGPT di OpenAI, riceve un cenno speciale nella legge. Pur non essendo etichettate come ad alto rischio, queste piattaforme dovranno essere trasparenti sul loro funzionamento e sui dati su cui si allenano, in linea con le leggi sul copyright dell'UE.
Ecco un breve riassunto delle regole principali della legge:
- Sistemi di intelligenza artificiale vietati: Coinvolgono la manipolazione cognitiva del comportamento, il social scoring, l'identificazione biometrica non autorizzata e il riconoscimento facciale in tempo reale/remoto.
- Sistemi di intelligenza artificiale ad alto rischio: Relativi a infrastrutture critiche, formazione scolastica/professionale, componenti della sicurezza dei prodotti, occupazione e gestione dei lavoratori, servizi pubblici e privati essenziali, applicazione della legge, migrazione/asilo/controllo delle frontiere e amministrazione della giustizia/processi democratici.
- Valutazione e reclami: I sistemi di intelligenza artificiale ad alto rischio saranno sottoposti a valutazioni prima del lancio sul mercato e per tutto il loro ciclo di vita. Le persone hanno il diritto di presentare reclami alle autorità nazionali.
- IA generativa: I sistemi come ChatGPT devono soddisfare i requisiti di trasparenza e le leggi sul copyright dell'UE, tra cui la divulgazione dei contenuti generati dall'IA, la prevenzione della generazione di contenuti illegali e la sintesi dei dati protetti da copyright utilizzati per l'addestramento.
- Tempistica di attuazione: La legge sull'IA è destinata a diventare legge entro la metà del 2024, con disposizioni che saranno introdotte gradualmente nell'arco di due anni. I sistemi vietati devono essere eliminati gradualmente entro sei mesi, le regole per l'IA per uso generale si applicano dopo un anno e la piena applicazione inizia due anni dopo l'entrata in vigore della legge.
- Multe: La mancata conformità può comportare multe fino a 35 milioni di euro o 7% del fatturato annuo mondiale.
Oltre a regolamentare l'addestramento e l'impiego dell'IA, uno degli aspetti più attesi della legge erano le norme sul copyright. Queste includono alcuni dei seguenti aspetti:
- I modelli di IA progettati per un'ampia gamma di utilizzi devono divulgare sintesi dei dati di addestramento che utilizzano.
- Le informazioni devono essere sufficientemente dettagliate da consentire ai creatori di identificare se i loro contenuti sono stati utilizzati nella formazione.
- Questo requisito si applica anche ai modelli open-sourced.
- Qualsiasi modifica a questi modelli, come la messa a punto, deve includere anche informazioni sui dati di addestramento utilizzati.
- Queste regole si applicano a qualsiasi modello offerto sul mercato dell'UE, indipendentemente dal luogo in cui è stato sviluppato.
- Le piccole e medie imprese (PMI) saranno soggette a un'applicazione più flessibile, ma dovranno comunque rispettare le leggi sul copyright.
- La disposizione esistente che consente ai creatori di escludere le loro opere dall'utilizzo nell'addestramento dell'IA rimane in vigore.
Questo sembra un passo avanti nella protezione dei dati delle persone dall'utilizzo per l'addestramento di modelli di intelligenza artificiale senza il loro permesso.
Le disposizioni dell'AI Act, che diventeranno formalmente legge entro la metà del 2024, entreranno gradualmente in vigore.
L'UE si aspetta che le pratiche o i progetti di IA vietati vengano interrotti entro sei mesi. Un anno dopo, i sistemi di IA per uso generale dovranno conformarsi alle nuove regole ed entro due anni la legge entrerà in vigore nella sua interezza.
Mentre la Legge ha sia i sostenitori che i criticiSi tratta di un evento di riferimento per l'industria tecnologica e sfida altre regioni ad accelerare le proprie strategie di governance dell'IA.
L'eurodeputato Dragos Tudorache ha spiegato come questa legge segni una nuova era per la tecnologia AI: "La legge sull'IA non è la fine del viaggio, ma il punto di partenza per una nuova governance costruita intorno alla tecnologia", sottolineando lo spirito pionieristico di questa legislazione.
Mentre le aziende, i giganti tecnologici e i governi di tutto il mondo osservano con attenzione, è evidente che gli effetti a catena di questa legislazione si faranno sentire ben oltre i confini europei. Capiremo presto il vero impatto.