La Commissione europea ha dato il via al progetto per lo sviluppo del primo Codice di condotta generale sull'IA, strettamente legato alla legge sull'IA recentemente approvata.
Il Codice mira a stabilire alcune chiare regole di base per i modelli di intelligenza artificiale come ChatGPT e Google Gemini, soprattutto per quanto riguarda la trasparenza, il copyright e la gestione dei rischi che questi potenti sistemi comportano.
In una recente plenaria online, quasi 1.000 esperti del mondo accademico, dell'industria e della società civile si sono riuniti per contribuire a definire l'aspetto di questo Codice.
Il processo è guidato da un gruppo di 13 esperti internazionali, tra cui Yoshua Bengio, uno dei "padrini" dell'IA, che si occuperà del gruppo che si concentra sui rischi tecnici. Bengio ha vinto il Premio Turing, che è di fatto il Premio Nobel per l'informatica, quindi le sue opinioni hanno un peso meritato.
Le opinioni pessimistiche di Bengio sulla rischio catastrofico che la potente intelligenza artificiale pone all'umanità lasciano intendere la direzione che prenderà il team da lui diretto.
Questi gruppi di lavoro si riuniranno regolarmente per redigere il Codice, la cui versione finale è prevista per aprile 2025. Una volta ultimato, il Codice avrà un forte impatto su tutte le aziende che intendono distribuire i propri prodotti di IA nell'UE.
Il EU AI Act stabilisce un quadro normativo rigoroso per i fornitori di IA, ma il Codice di condotta sarà la guida pratica che le aziende dovranno seguire. Il Codice si occuperà di questioni quali la trasparenza dei sistemi di IA, il rispetto delle leggi sul copyright e la definizione di misure per gestire i rischi associati all'IA.
I team che redigeranno il Codice dovranno trovare un equilibrio tra lo sviluppo dell'IA in modo responsabile e sicuro, senza soffocare l'innovazione, cosa per cui l'UE è già stata criticata. I più recenti modelli e funzioni di IA di Meta, Apple e OpenAI sono non è pienamente utilizzato nell'UE a causa delle già severe leggi sulla privacy GDPR.
Le implicazioni sono enormi. Se fatto bene, il Codice potrebbe stabilire standard globali per la sicurezza e l'etica dell'IA, conferendo all'UE un ruolo di leadership nella regolamentazione dell'IA. Ma se il Codice è troppo restrittivo o poco chiaro, potrebbe rallentare lo sviluppo dell'IA in Europa, spingendo gli innovatori altrove.
Anche se l'UE sarebbe senza dubbio favorevole all'adozione del suo Codice a livello mondiale, è improbabile che ciò avvenga, poiché la Cina e gli Stati Uniti sembrano essere più favorevoli allo sviluppo che avversi al rischio. Il veto alla legge californiana SB 1047 sulla sicurezza dell'IA è un buon esempio dei diversi approcci alla regolamentazione dell'IA.
È improbabile che l'Intelligenza Artificiale emerga dall'industria tecnologica dell'UE, ma è anche meno probabile che l'UE sia il punto di partenza di qualsiasi potenziale catastrofe alimentata dall'Intelligenza Artificiale.