GitHub, Hugging Face, Creative Commons e molte altre organizzazioni tecnologiche hanno inviato una lettera aperta ai responsabili politici dell'UE, invitandoli a rivalutare alcuni elementi dell'AI Act.
Il lettera afferma che le normative proposte rischiano di ostacolare lo sviluppo di modelli di IA open-source e propone 5 raccomandazioni per mitigare tale rischio.
Uno dei principali punti di contestazione è il trattamento di alcuni progetti open-source come se fossero sistemi di IA commerciali o distribuiti. Ciò può presentare difficoltà per i singoli sviluppatori e per i ricercatori non profit.
La legge sull'AI ha ricevuto una maggioranza schiacciante di 499 voti a favore, 28 contrari e 93 astensioni al Parlamento europeo. in giugno.
Tuttavia, sarà promulgato solo quando otterrà il consenso del Consiglio dell'UE, che rappresenta i 27 Stati membri.
Ecco una sintesi delle 5 raccomandazioni della lettera:
- Definizione di "componenti AI": La lettera raccomanda che la legge sull'IA dell'UE includa una definizione precisa di "componenti dell'IA", un termine comunemente usato nella legge, sottolineando la necessità di delineare quali siano.
- Chiarimenti sullo sviluppo open-source: Lo sviluppo collaborativo di IA open-source, ad esempio rendendo i componenti dell'IA liberamente disponibili in archivi pubblici, dovrebbe essere chiarito come non soggetto alla Legge. In questo modo si cerca di distinguere le attività open-source da quelle commerciali.
- Supporto per un "Ufficio AI": GitHub e altri sostengono l'intenzione dell'UE di istituire un Ufficio AI.
- Eccezioni effettive alla Legge: La lettera chiede eccezioni sulle attività relative ai test reali dei sistemi di IA per comprenderne le prestazioni e individuarne i punti deboli.
- Requisiti proporzionali per i "modelli di fondazione": Infine, la lettera chiede un approccio sfumato alla differenziazione tra i diversi modelli. Sostiene che la legge dovrebbe tenere conto delle caratteristiche uniche dei modelli open-source.
GitHub e gli altri firmatari sperano che la legge sia in grado di bilanciare la mitigazione dei rischi e di promuovere l'innovazione dell'IA, ma le loro raccomandazioni contribuirebbero a sostenere la comunità open-source, che svolge un ruolo significativo nel settore.
La regolamentazione potrebbe colpire in modo sproporzionato l'IA open-source
Le grandi aziende tecnologiche come Microsoft, Google e Meta sono esperte nella gestione della conformità e delle normative.
Questo non vuol dire che non commettano occasionalmente errori gravi, ma hanno i mezzi e le risorse per rispettare le normative sull'AI.
In realtà, per la maggior parte, le big tech sono state molto incoraggianti nei confronti della regolamentazione e proattive nei confronti dell'autoregolamentazione. Google, Anthropic, OpenAI e Microsoft hanno costituito il Frontier Model Forum. questa settimanaavviando una collaborazione tra i concorrenti.
La comunità open-source ritiene che la regolamentazione li colpirà più duramente, potenzialmente anche criminalizzando forme di R&S pubblica sull'IA.
Questo va a vantaggio delle big tech, in quanto l'IA open-source è forse la loro il più grande concorrente. Questo spiegherebbe perché sono così disposti a lavorare insieme.