La legge dell'Unione Europea sull'intelligenza artificiale (AI) è entrata ufficialmente in vigore il 1° agosto 2024 - un momento cruciale per la regolamentazione globale dell'AI.
Questa ampia legislazione classifica i sistemi di IA in base ai loro livelli di rischio, imponendo diversi gradi di supervisione che variano a seconda della categoria di rischio.
La legge vieterà completamente alcune forme di IA "a rischio inaccettabile", come quelle progettate per manipolare il comportamento delle persone.
Mentre il Atto è ora legge in tutti i 27 Stati membri dell'UE, ma la maggior parte delle sue disposizioni non ha effetto immediato.
Questa data segna invece l'inizio di una fase di preparazione sia per le autorità di regolamentazione che per le imprese.
Tuttavia, gli ingranaggi sono in movimento e la legge è destinata a plasmare il futuro dello sviluppo, dell'impiego e della gestione delle tecnologie dell'IA, sia nell'UE che a livello internazionale.
Il calendario di attuazione è il seguente:
- Febbraio 2025: Entrano in vigore i divieti sulle pratiche di IA "a rischio inaccettabile". Queste includono i sistemi di social scoring, lo scraping non mirato di immagini facciali e l'uso di tecnologie di riconoscimento delle emozioni nei luoghi di lavoro e di istruzione.
- Agosto 2025: Entrano in vigore i requisiti per i modelli di intelligenza artificiale di uso generale. Questa categoria, che comprende modelli linguistici di grandi dimensioni come il GPT, dovrà rispettare le norme in materia di trasparenza, sicurezza e riduzione dei rischi.
- Agosto 2026: I regolamenti per i sistemi di intelligenza artificiale ad alto rischio in settori critici come l'assistenza sanitaria, l'istruzione e l'occupazione diventano obbligatori.
La Commissione europea si sta preparando ad applicare queste nuove regole.
Il portavoce della Commissione, Thomas Regnier, ha spiegato che circa 60 dipendenti attuali saranno trasferiti al nuovo Ufficio AI, mentre altri 80 dipendenti esterni saranno assunti nel corso del prossimo anno.
Inoltre, ogni Stato membro dell'UE è tenuto a istituire autorità nazionali competenti per la supervisione e l'applicazione della legge entro l'agosto 2025.
La conformità non avverrà da un giorno all'altro. Sebbene qualsiasi grande azienda di IA si stia preparando da tempo alla legge, gli esperti stimano che l'implementazione dei controlli e delle pratiche possa richiedere sei mesi o più.
La posta in gioco è alta per le aziende che finiscono nel mirino della legge. Le aziende che la violano possono incorrere in multe fino a 35 milioni di euro o al 7% del loro fatturato annuo globale, se superiore.
Si tratta di una cifra superiore al GPDR e l'UE non tende a fare minacce a vuoto, raccogliendo oltre 4 miliardi di euro dalle multe del GDPR fino ad oggi.
Impatti internazionali
La legge europea sull'IA, la prima normativa completa sull'IA al mondo, fisserà nuovi standard a livello mondiale.
I grandi operatori come Microsoft, Google, Amazon, Apple e Meta saranno tra i più bersagliati dalle nuove norme.
Come spiega Charlie Thompson di Appian ha dichiarato alla CNBCL'AI Act si applicherà probabilmente a tutte le organizzazioni che operano o hanno un impatto nell'UE, a prescindere dalla loro sede legale".
Alcune aziende statunitensi stanno adottando misure preventive. Meta, ad esempio, ha limitato la disponibilità del suo Modello AI LaMa 400B in Europacitando l'incertezza normativa. OpenAI ha minacciato di bloccare il rilascio dei prodotti in Europa nel 2023, ma ha rapidamente fatto marcia indietro.
Per conformarsi alla legge, le aziende di IA potrebbero dover rivedere i set di dati di formazione, implementare una più solida supervisione umana e fornire alle autorità dell'UE una documentazione dettagliata.
Questo è in contrasto con il modo in cui opera l'industria dell'IA. I modelli di IA proprietari di OpenAI, Google, ecc. sono segrete e altamente protette.
I dati di addestramento sono estremamente preziosi e la loro divulgazione potrebbe esporre grandi quantità di materiale protetto da copyright.
Ci sono domande difficili a cui rispondere se si vuole che lo sviluppo dell'IA progredisca allo stesso ritmo di quanto fatto finora.
Alcune aziende sono sottoposte a pressioni per agire prima di altre
Secondo le stime della Commissione europea, circa 85% delle aziende di IA rientrano nella categoria "rischio minimo", che richiede poca sorveglianza, ma le norme della legge incidono comunque sulle attività delle aziende che rientrano nelle categorie superiori.
Le risorse umane e l'occupazione sono un'area che rientra nella categoria "ad alto rischio" della legge.
I principali fornitori di software aziendali, come SAP, Oracle, IBM, Workday e ServiceNow, hanno lanciato applicazioni HR potenziate con l'intelligenza artificiale che incorporano l'intelligenza artificiale nello screening e nella gestione dei candidati.
Jesper Schleimann, responsabile AI di SAP per l'area EMEA, ha dichiarato a Il Registro che l'azienda ha stabilito processi solidi per garantire la conformità alle nuove norme.
Allo stesso modo, Workday ha implementato un programma di AI responsabile guidato da dirigenti senior per allinearsi ai requisiti della legge.
Un'altra categoria sottoposta al cosh è quella dei sistemi di IA utilizzati nelle infrastrutture critiche e nei servizi pubblici e privati essenziali.
Ciò comprende un'ampia gamma di applicazioni, dall'IA utilizzata nelle reti energetiche e nei sistemi di trasporto a quella impiegata nella sanità e nei servizi finanziari.
Le aziende che operano in questi settori dovranno dimostrare che i loro sistemi di IA soddisfano rigorosi standard di sicurezza e affidabilità. Dovranno inoltre condurre valutazioni approfondite dei rischi, implementare solidi sistemi di monitoraggio e garantire che i loro modelli di IA siano spiegabili e trasparenti.
Sebbene la legge sull'AI vieti in modo assoluto alcuni usi dell'identificazione biometrica e della sorveglianza, fa delle concessioni limitate nei contesti di applicazione della legge e di sicurezza nazionale.
Questa si è dimostrata un'area fertile per lo sviluppo dell'IA, con aziende come Palantir che hanno costruito sistemi predittivi avanzati per la criminalità che potrebbero essere in contrasto con l'atto.
Il Regno Unito ha già sperimentato molto con Sorveglianza alimentata dall'intelligenza artificiale. Anche se il Regno Unito non fa parte dell'UE, molte aziende di IA con sede nel Regno Unito dovranno quasi certamente conformarsi alla legge.
L'incertezza è in agguato
La reazione alla legge è stata contrastante. Numerose aziende del settore tecnologico dell'UE hanno espresso preoccupazione per il suo impatto sull'innovazione e sulla concorrenza.
A giugno, oltre 150 dirigenti di grandi aziende come Renault, Heineken, Airbus e Siemens si sono uniti in una lettera aperta, esprimendo le loro preoccupazioni per l'impatto del regolamento sulle imprese.
Jeannette zu Fürstenberg, una delle firmatarie e partner fondatore del fondo di venture capital La Famiglia VC con sede a Berlino, ha dichiarato che la legge sull'intelligenza artificiale potrebbe avere "implicazioni catastrofiche per la competitività europea".
France Digitale, che rappresenta le startup tecnologiche in Europa, ha criticato le regole e le definizioni della legge, affermando: "Abbiamo chiesto di non regolamentare la tecnologia in quanto tale, ma di regolamentare gli usi della tecnologia. La soluzione adottata oggi dall'Europa equivale a regolamentare la matematica, il che non ha molto senso".
Tuttavia, i sostenitori sostengono che la legge presenta anche opportunità di innovazione nello sviluppo responsabile dell'IA. La posizione dell'UE è chiara: proteggere le persone dall'IA, e un'industria più completa ed eticamente orientata seguirà.
Regnier ha dichiarato a Euro News"Si sente dire ovunque che ciò che l'UE fa è puramente normativo (...) e che questo bloccherà l'innovazione. Questo non è corretto".
"La legislazione non serve a far desistere le aziende dal lanciare i loro sistemi, ma è l'opposto. Vogliamo che operino nell'UE, ma vogliamo proteggere i nostri cittadini e le nostre imprese".
Nonostante lo scetticismo, c'è motivo di ottimismo. SLa definizione di limiti per il riconoscimento facciale, il social scoring e l'analisi comportamentale, è stata pensata per proteggere le libertà civili dei cittadini dell'UE, che da tempo hanno la precedenza sulla tecnologia nelle normative europee.
A livello internazionale, la legge può contribuire a costruire la fiducia del pubblico nelle tecnologie dell'IA, a placare i timori e a stabilire standard più chiari per lo sviluppo e l'utilizzo dell'IA.
La costruzione di una fiducia a lungo termine nell'IA è fondamentale per far progredire l'industria, quindi la legge potrebbe avere qualche vantaggio commerciale, anche se ci vorrà pazienza per vederla realizzata.