Tutto quello che c'è da sapere sullo storico accordo dell'UE sull'IA

9 dicembre 2023

Legge UE sull'AI

L'UE ha raggiunto un accordo sulla legge sull'IA, che probabilmente entrerà in vigore tra il 2024 e il 2025, come previsto. 

Questa decisione storica è stata il risultato di un'intensa sessione negoziale di 37 ore che ha coinvolto il Parlamento europeo e gli Stati membri dell'UE.

Thierry Breton, il commissario europeo principale responsabile di questa nuova serie di leggi, ha definito l'accordo "storico". I colloqui sono in corso da martedì, con alcuni giorni in cui i negoziatori hanno lavorato fino a notte fonda. 

Carme Artigas, Segretario di Stato spagnolo per l'AI, è stata fondamentale nel condurre questi negoziati a una conclusione positiva.

Artigas ha sottolineato il significativo sostegno che il testo ha ricevuto dai principali Paesi europei, affermando in particolare che "Francia e Germania hanno appoggiato il testo". Si tratta di un fatto degno di nota, poiché Francia e Germania, desiderose di incoraggiare le proprie industrie di IA in crescita, hanno messo in discussione alcuni degli elementi più severi della legge. 

L'UE è ora destinata a guidare la regolamentazione dell'IA. Anche se i contenuti e le implicazioni specifiche delle nuove leggi stanno ancora emergendo, è probabile che entrino in vigore nel 2024/2025. 

Accordi e aspetti chiave della legge UE sull'AI

Il accordo provvisorio sulla legge sull'AI rappresenta un passo storico nella regolamentazione dell'IA. Segue le orme di altri regolamenti tecnologici dell'UE, come il GDPR, che negli anni ha sottoposto le aziende tecnologiche a multe miliardarie. 

Carme Artigas, Segretario di Stato spagnolo per la digitalizzazione e l'intelligenza artificiale, ha commentato così la legge: "Si tratta di un risultato storico e di un'enorme pietra miliare verso il futuro! L'accordo di oggi affronta efficacemente una sfida globale in un ambiente tecnologico in rapida evoluzione su un settore chiave per il futuro delle nostre società ed economie. In questo sforzo, siamo riusciti a mantenere un equilibrio estremamente delicato: stimolare l'innovazione e l'adozione dell'intelligenza artificiale in tutta Europa, nel pieno rispetto dei diritti fondamentali dei nostri cittadini".

Ecco i nuovi aspetti fondamentali della legislazione concordata:

  • Sistemi di IA ad alto impatto e ad alto rischio: L'accordo introduce regole sui modelli di intelligenza artificiale di uso generale che potrebbero comportare rischi "sistemici". Il significato preciso rimane ambiguo, ma in linea di massima è stato pensato per le nuove generazioni di modelli a livello GPT-4 e oltre. 
  • Governance e applicazione: È stato istituito un sistema di governance rivisto, che include alcuni poteri di applicazione a livello di UE. Ciò garantisce un approccio centralizzato alla regolamentazione dell'IA in tutti gli Stati membri.
  • Divieti ed eccezioni per l'applicazione della legge: L'accordo estende l'elenco delle pratiche di IA vietate, ma consente l'uso dell'identificazione biometrica a distanza da parte delle forze dell'ordine negli spazi pubblici a condizioni rigorose. Ciò mira a bilanciare la sicurezza pubblica con la privacy e le libertà civili.
  • Protezione dei diritti: Un aspetto fondamentale dell'accordo è l'obbligo per i distributori di sistemi di IA ad alto rischio di valutare l'impatto sui diritti delle persone prima di utilizzare un sistema di IA. "Distributori" è la parola chiave in questo caso, poiché l'Atto obbliga le responsabilità in tutta la catena di valore dell'IA.

Altre aree concordate includono:

  • Definizioni e ambito di applicazione: La definizione di sistemi di IA è stata allineata con la definizione di "sistemi di IA". Definizione dell'OCSEIl regolamento esclude i sistemi di IA utilizzati esclusivamente per scopi militari, di difesa, di ricerca e di innovazione o da individui per motivi non professionali.
  • Classificazione dei sistemi di IA: I sistemi di intelligenza artificiale saranno classificati in base al rischio, con i sistemi ad alto rischio soggetti a requisiti rigorosi e obblighi di trasparenza più leggeri per i sistemi a rischio limitato. L'intenzione è sempre stata questa.
  • Modelli di fondazione: L'accordo riguarda i modelli di fondazione, grandi sistemi di IA in grado di svolgere diversi compiti come ChatGPT/Bard/Claude 2. Per questi modelli sono previsti specifici obblighi di trasparenza, con norme più severe per i modelli di fondazione ad alto impatto.
  • Requisiti dei sistemi di intelligenza artificiale ad alto rischio: I sistemi di intelligenza artificiale ad alto rischio saranno ammessi nel mercato dell'UE, ma dovranno soddisfare requisiti specifici, tra cui la qualità dei dati e la documentazione tecnica, soprattutto per le PMI.
  • Responsabilità nelle catene di valore dell'IA: L'accordo chiarisce i ruoli e le responsabilità dei diversi attori delle catene di valore dei sistemi di IA, compresi i fornitori e gli utenti, e come questi si relazionano con la legislazione europea esistente.
  • Pratiche di IA vietate: L'atto vieta alcune pratiche di IA inaccettabili, come la manipolazione cognitiva del comportamento, lo scraping non mirato di immagini facciali e il riconoscimento delle emozioni nei luoghi di lavoro e nelle istituzioni educative.
  • Procedure di emergenza per le forze dell'ordine: Una procedura di emergenza consente alle forze dell'ordine di utilizzare strumenti di IA ad alto rischio che non hanno superato la valutazione di conformità in situazioni urgenti.
  • Identificazione biometrica in tempo reale: L'uso da parte delle forze dell'ordine di sistemi di identificazione biometrica remota in tempo reale negli spazi pubblici è consentito a condizioni rigorose per scopi specifici, come la prevenzione di attacchi terroristici o la ricerca di sospetti di reati gravi.

Governance, sanzioni e applicazione:

  • La governance: Un Ufficio AI all'interno della Commissione supervisionerà i modelli avanzati di AI, con il supporto di un gruppo scientifico di esperti indipendenti e del Consiglio AI composto da rappresentanti degli Stati membri.
  • Sanzioni: L'accordo stabilisce ammende basate su una percentuale del fatturato annuo globale dell'azienda per varie violazioni, con tetti più proporzionati per le PMI e le start-up.
  • Multe: Le sanzioni per la non conformità sono state stabilite in base alla gravità della violazione. Le multe sono calcolate come percentuale del fatturato annuo globale dell'azienda dell'anno fiscale precedente o come importo fisso. Viene preso il valore più alto tra i due. Le ammende sono strutturate come segue: 35 milioni di euro o 7% di fatturato per le violazioni che riguardano applicazioni di IA vietate, 15 milioni di euro o 3% per le violazioni degli obblighi della legge e 7,5 milioni di euro o 1,5% per la fornitura di informazioni non corrette.
  • Supporto: L'accordo prevede sandbox di regolamentazione dell'IA per testare sistemi innovativi di IA in condizioni reali e fornisce supporto alle aziende più piccole.

Questo accordo provvisorio deve ancora essere approvato dal Parlamento europeo e dai 27 Stati membri dell'UE.

Come influirà la legislazione sui "modelli di frontiera"?

In base alle nuove norme, tutti gli sviluppatori di sistemi di IA generici, in particolare quelli con un'ampia gamma di applicazioni potenziali come ChatGPT e Bard, devono mantenere informazioni aggiornate sulle modalità di addestramento dei loro modelli, fornire un riepilogo dettagliato dei dati utilizzati per l'addestramento e adottare politiche che rispettino le leggi sul copyright e garantiscano un uso accettabile.

La legge classifica inoltre alcuni modelli come "rischio sistemico". Questa valutazione si basa principalmente sulla potenza di calcolo di questi modelli. L'UE ha fissato una soglia per questa categoria a modelli che impiegano più di 10 trilioni di trilioni di operazioni al secondo.

Attualmente, il GPT-4 di OpenAI è l'unico modello che soddisfa automaticamente questa soglia. Tuttavia, l'UE potrebbe etichettare altri modelli secondo questa definizione. 

I modelli considerati a rischio sistemico saranno soggetti a regole aggiuntive e più severe. Queste includono:

  • Segnalazione obbligatoria dei consumi energetici.
  • Conduzione di test in red-teaming o in contraddittorio.
  • Valutare e attenuare i potenziali rischi sistemici.
  • Garantire solidi controlli di cybersecurity.
  • Riportare sia le informazioni utilizzate per la messa a punto del modello sia i dettagli sull'architettura del sistema.

Come è stato accolto l'accordo?

La legge sull'IA ha scatenato una miriade di reazioni che commentano l'innovazione, la regolamentazione e l'impatto sulla società. 

Fritz-Ulli Pieper, specialista in diritto informatico presso Taylor Wessing, ha sottolineato che, sebbene la fine sia in vista, la legge è ancora suscettibile di modifiche.

Ha osservato: "Molti punti devono ancora essere approfonditi nel trilogo tecnico. Nessuno sa come sarà la formulazione finale e se o come si potrà davvero spingere l'accordo attuale in un testo di legge finale". 

Gli approfondimenti di Pieper rivelano la complessità e l'incertezza che circondano la legge sull'IA, suggerendo che rimane molto lavoro da fare per garantire che la legislazione finale sia efficace e pratica.

Un tema chiave di questi incontri è stato quello di bilanciare i rischi e le opportunità dell'IA, in particolare perché i modelli possono avere una "doppia natura", ovvero fornire benefici e infliggere danni. Alexandra van Huffelen, ministro olandese della Digitalizzazione, ha osservato: "Affrontare l'IA significa distribuire equamente le opportunità e i rischi". 

La legge sembra inoltre non aver protetto i cittadini dell'UE dalla sorveglianza su larga scala, cosa che ha attirato l'attenzione di gruppi di difesa come Amnesty International.

Mher Hakobyan, Advocacy Advisor on Artificial Intelligence, ha dichiarato a proposito di questo punto controverso: "Non garantire un divieto totale di riconoscimento facciale è quindi un'opportunità enormemente persa per fermare e prevenire danni colossali ai diritti umani, allo spazio civico e allo stato di diritto, che sono già minacciati in tutta l'UE".

A seguito di questo accordo provvisorio, la legge sull'IA diventerà applicabile due anni dopo la sua promulgazione ufficiale, consentendo ai governi e alle imprese di tutta l'UE di prepararsi a conformarsi alle sue disposizioni. 

Nel frattempo, i funzionari negozieranno i dettagli tecnici del regolamento. Una volta conclusi gli affinamenti tecnici, il testo di compromesso sarà sottoposto ai rappresentanti degli Stati membri per l'approvazione.

La fase finale prevede una revisione giuridico-linguistica per garantire chiarezza e accuratezza giuridica, seguita dall'adozione formale. L'AI Act cambierà sicuramente il settore sia nell'UE che a livello globale, ma è difficile prevederne la portata.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni