Le discussioni tra Stati Uniti e Unione Europea spingono per una "pausa" temporanea sull'IA prima che i regolamenti diventino vincolanti

1 giugno 2023

AI UE-USA

La crescita esponenziale dei sistemi di IA sta superando la ricerca e la regolamentazione, lasciando i governi in una posizione scomoda per bilanciare i vantaggi con i rischi. 

Le leggi richiedono anni per essere sviluppate e diventare legalmente vincolanti. L'intelligenza artificiale si evolve settimanalmente. 

Questa è la dicotomia che i leader dell'IA e i politici si trovano ad affrontare, con il primo atto normativo significativo sull'IA in Occidente, l'EU AI Act, previsto per il 2026. Anche un anno fa, la ChatGPT era solo un sussurro.

Il 31 maggio, a Luleå, in Svezia, si sono incontrati i massimi funzionari degli Stati Uniti e dell'Unione europea per il Trade and Tech Council (TTC). Margrethe Vestager, commissario europeo per il digitale, che la settimana precedente aveva incontrato il CEO di Google Sundar Pichai per discutere di un potenziale "patto sull'intelligenza artificiale", ha dichiarato: "La democrazia deve dimostrare di essere veloce quanto la tecnologia".

I funzionari riconoscono l'enorme divario tra il ritmo della tecnologia e quello della legislazione. Riferendosi all'IA generativa come ChatGPT, Gina Raimondo, segretario al Commercio degli Stati Uniti, ha dichiarato: "Sta arrivando a un ritmo come nessun'altra tecnologia". 

Che cosa ha ottenuto la riunione del TTC?

I partecipanti hanno discusso soprattutto dei quadri non vincolanti o volontari in materia di rischio e trasparenza, che saranno presentati al G7 in autunno. 

L'UE, che ha un approccio diretto alla legislazione digitale, opta per un approccio graduale alla regolamentazione dell'IA, in cui le IA sono suddivise in categorie in base al rischio. 

Questo include un livello vietato di "rischio inaccettabile" e un livello di "alto rischio", che i leader tecnologici come il CEO di OpenAI Sam Altman temono possa compromettere la funzionalità dei loro prodotti. 

Rischio AI
Livelli di rischio dell'EU AI Act: Fonte: UE.

Gli Stati Uniti non propongono regolamenti così definitivi, favorire le regole volontarie.

Saranno necessari molti altri incontri tra l'UE, gli Stati Uniti e le grandi aziende tecnologiche per allineare i punti di vista con azioni pratiche significative. 

Le regole volontarie sull'IA funzioneranno?

Ci sono molti esempi di regole volontarie in altri settori e industrie, come i quadri volontari per la sicurezza dei dati e le informazioni ESG, ma nessuno è così vicino all'avanguardia come un quadro volontario di governance dell'IA. 

Dopo tutto, abbiamo a che fare con una minaccia di livello estintivo, secondo i principali leader tecnologici e accademici che hanno firmato il documento Dichiarazione del Center for AI Safety sui rischi dell'intelligenza artificiale questa settimana.

Grandi aziende come OpenAI e Google dispongono già di dipartimenti centrali che si occupano di governance e di questioni di conformità interna, quindi allineare i loro prodotti e servizi ai quadri volontari potrebbe essere una questione di riscrittura dei documenti di politica interna. 

Le regole volontarie sono meglio di niente, ma con numerose proposte sul tavolo, i politici e i leader dell'IA dovranno prima o poi scegliere qualcosa con cui correre.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni