I principali dirigenti di oltre 150 grandi aziende, tra cui Renault, Heineken, Airbus e Siemens, hanno pubblicamente esortato l'UE a riconsiderare i nuovi regolamenti sull'IA.
Esse esprimono la preoccupazione che le regole stabilite nella legge sull'IA recentemente approvata possano ostacolare la concorrenza e l'innovazione nel settore europeo dell'IA.
L'appello è stato lanciato attraverso una lettera aperta indirizzata al Parlamento europeo, alla Commissione e agli Stati membri, in cui si afferma che l'AI Act può mettere a rischio la competitività tecnologica dell'Europa.
Il Financial Times è stato il primo ad acquisire il letteraIn qualità di stakeholder impegnati del settore economico europeo, desideriamo esprimere le nostre serie preoccupazioni in merito alla proposta di legge dell'UE sull'intelligenza artificiale (AI). Secondo la nostra valutazione, la proposta di legge metterebbe a repentaglio la competitività e la sovranità tecnologica dell'Europa senza affrontare efficacemente le sfide che stiamo e staremo affrontando".
Il 14 giugno, il Parlamento europeo ha approvato una bozza della legge sull'intelligenza artificiale dopo 2 anni di deliberazioni e modifiche riguardanti i modelli di intelligenza artificiale di grandi dimensioni (LLM) e i modelli di base come il GPT-4 di OpenAI. Ci sono ancora diverse fasi da completare prima che la legge diventi legge, cosa che si prevede avverrà nel 2024.
I firmatari della lettera aperta sostengono che la legge sull'intelligenza artificiale può soffocare l'opportunità per l'Europa di rimanere all'avanguardia nell'innovazione tecnologica.
Essi esprimono il timore che le norme siano eccessivamente severe, ostacolando le aspirazioni tecnologiche della regione anziché favorire un ambiente positivo per il progresso dell'IA.
Una questione fondamentale sollevata è la severità delle norme della legge per i sistemi di IA generativi, una categoria di modelli di IA spesso definita "modelli di base". L'AI Act richiede agli sviluppatori di IA di registrare i loro prodotti presso l'UE, di sottoporli a valutazioni del rischio e di soddisfare i requisiti di trasparenza, tra cui la divulgazione pubblica di qualsiasi dato protetto da copyright utilizzato per addestrare i loro modelli.
Queste disposizioni, sostengono le aziende, potrebbero comportare costi di conformità sproporzionati e rischi di responsabilità, spingendo potenzialmente gli sviluppatori di IA a uscire dal mercato europeo. La lettera esorta l'UE ad abbandonare le rigide richieste di conformità per i modelli di IA generativa e ad adottare un approccio più flessibile e basato sul rischio.
Jeannette zu Fürstenberg, socio fondatore di La Famiglia VC e uno dei firmatari della lettera, afferma: "Siamo giunti alla conclusione che l'AI Act dell'UE, nella sua forma attuale, ha implicazioni catastrofiche per la competitività europea. In questo momento in Europa si sta liberando un forte spirito di innovazione, con talenti europei chiave che lasciano le aziende statunitensi per sviluppare tecnologia in Europa. Una regolamentazione che grava ingiustamente sulle aziende giovani e innovative mette a rischio questo spirito di innovazione".
Le aziende suggeriscono inoltre all'UE di istituire un organismo di regolamentazione composto da esperti del settore dell'IA per supervisionare l'applicazione della legge man mano che la tecnologia dell'IA si evolve.
L'UE è ferma
Dragoș Tudorache, membro del Parlamento europeo che ha guidato lo sviluppo dell'AI Act, ha risposto alla lettera affermando: "È un peccato che la lobby aggressiva di pochi catturi altre aziende serie. Le aziende che hanno firmato la lettera stanno reagendo allo stimolo di pochi, e la proposta di legge dell'UE prevede un processo guidato dall'industria per la definizione degli standard, una governance con l'industria al tavolo e un regime normativo leggero che richiede trasparenza. Nient'altro".
Sam Altman, amministratore delegato di OpenAI, aveva precedentemente avvertito di un potenziale ritiro dal mercato europeo se il rispetto delle normative comunitarie si fosse rivelato insostenibile, ma ha in seguito rassicurato che OpenAI "non ha intenzione di andarsene".
L'AI Act adotta un approccio graduale, dividendo le IA in diverse categorie in base al rischio. Tra queste vi è una categoria di "rischio inaccettabile" completamente vietata per le IA che manipolano il comportamento umano, mettono a repentaglio i diritti umani e causano discriminazioni dirette.
Non sappiamo ancora se l'UE riuscirà ad applicare la legge sull'intelligenza artificiale, ma dal GDPR sappiamo che sono possibili almeno multe sostanziali.