Il vertice britannico sulla sicurezza dell'intelligenza artificiale, unito all'ordine esecutivo di Biden, ha portato la regolamentazione dell'intelligenza artificiale sotto i riflettori, ma il quadro generale rimane nebuloso.
Il summit ha riunito un gruppo eterogeneo di stakeholder, dimostrando un impegno collettivo per plasmare il futuro dell'IA.
L'accoglienza dell'evento da parte dello spettro politico dei media britannici è stata generalmente positiva, con pubblicazioni tipicamente contrarie all'approccio aggressivo di Sunak, tra cui il Guardian, che l'hanno salutato come un successo generale.
Sebbene permanga la sensazione che gli eventi politici legati all'IA siano stati poco più che promesse, liquidarli del tutto potrebbe essere eccessivamente riduttivo.
Il Dichiarazione di Bletchley è stato uno dei principali risultati del vertice, approvato da 28 Paesi, tra cui Stati Uniti, Regno Unito, Cina e UE, sottolineando il consenso internazionale sulla supervisione dell'IA.
Due giorni prima del vertice, l'agenzia di Biden ordine esecutivo ha illustrato la strategia degli Stati Uniti per la gestione dei rischi legati all'IA, mostrando la risposta nazionale del Paese a quella che è certamente una sfida globale.
La tempistica dell'ordine illustra il tentativo di affermare la propria leadership e di stabilire degli standard nel campo in rapida evoluzione dell'IA.
L'insieme di questi eventi ha certamente stabilito il "perché" della regolamentazione: per contenere i rischi, enfatizzare i benefici e proteggere i gruppi vulnerabili.
Ci siamo lasciati con il "come?", mentre il discorso sulla natura e l'esecuzione della regolamentazione rimane contestato.
Le grandi potenze sono ora in lotta per la leadership normativa, che il primo ministro britannico Rishi Sunak intendeva guidare quando ha annunciato il vertice.
Questo è stato in qualche modo eclissato dall'ordine esecutivo, in cui la vicepresidente Kamala Harris ha detto chiaramente: "Intendiamo che le azioni che stiamo intraprendendo a livello nazionale servano da modello per l'azione internazionale".
Gina Raimondo, segretario al Commercio degli Stati Uniti, ha ulteriormente colto il duplice spirito di competizione e collaborazione nella sua dichiarazione al Summit, affermando: "Anche se le nazioni competono vigorosamente, possiamo e dobbiamo cercare soluzioni globali a problemi globali".
Parlando dell'etica alla base del recente ordine esecutivo, Ben Buchanan, consigliere per l'IA della Casa Bianca, ha dichiarato: "La leadership degli Stati Uniti nell'IA non consiste solo nell'inventare la tecnologia".
"Si tratta di creare e co-sviluppare i meccanismi di governance, i protocolli di sicurezza, gli standard e le istituzioni internazionali che daranno forma all'impatto di questa tecnologia".
Sembra che per gli Stati Uniti la regolamentazione dell'IA sia un argomento geopoliticamente competitivo, soprattutto se combinato con la soggiogamento delle esportazioni di AI di alto livello verso la Russia, il Medio Oriente e la Cina.
Un po' meno chiacchiere e un po' più di azione?
Non si sa se questi eventi accelereranno la legislazione e se questa sarà efficace. In assenza di leggi, gli sviluppatori di IA possono continuare a promuovere strutture volontarie senza essere vincolati ad esse.
Anche con le leggi in vigore, l'IA si muove rapidamente e coloro che comprendono veramente la tecnologia e il suo impatto sono pochi e divisi.
I "padrini dell'intelligenza artificiale" di Geoffrey Hinton, Yoshio Bengio e Yann LeCun non riescono nemmeno a mettersi d'accordo sui rischi dell'IA, le loro proporzioni e come affrontarli.
Charlotte Walker-Osborn, partner tecnologico dello studio legale Morrison Foerster, ha dichiarato che la Dichiarazione di Bletchley "probabilmente favorirà il raggiungimento di un certo livello di consenso legislativo e governativo internazionale sui principi chiave della regolamentazione dell'IA".
"Un certo livello" è una terminologia rivelatrice. Come sottolinea Walker-Osborn, "un approccio veramente uniforme è improbabile" a causa dei diversi approcci alla regolamentazione e alla governance nei vari Paesi. Raggiungere il consenso è una cosa, ma attuarlo in quadri giuridici e normativi diversi è un'altra.
Inoltre, l'assenza di requisiti vincolanti, come ammesso da Rishi Sunak, e l'affidamento ad accordi di sperimentazione volontaria tra i governi e le principali aziende di IA evidenziano ulteriori limiti.
Senza regolamenti applicabili, le dichiarazioni potrebbero non avere la forza necessaria per promuovere cambiamenti concreti, proprio come l'ordine esecutivo di Biden.
Potremmo essere entrati in un periodo di scossa e di simbolica competizione normativa, con una legislazione concreta ancora in gran parte in fase di elaborazione al di fuori della Cina.
Secondo Deb Raji, borsista presso la Fondazione MozillaIl vertice ha rivelato prospettive diverse.
"Credo che ci siano opinioni piuttosto divergenti nei vari Paesi su cosa fare esattamente", ha detto Raji, dimostrando che anche tra coloro che sono d'accordo sul principio della regolamentazione, i dettagli rimangono controversi.
Altri avevano già detto che il Congresso è così profondamente diviso su alcuni aspetti dell'IA che la legislazione è probabilmente molto lontana.
Anu Bradford, professore di diritto alla Columbia University, ha dichiarato: "Il Congresso è profondamente polarizzato e persino disfunzionale, al punto che è molto improbabile che produca una legislazione significativa sull'IA nel prossimo futuro".
Allo stesso modo, Margaret Mitchell, ricercatrice e responsabile dell'etica di Hugging Face, ha dichiarato: "I governi cercheranno di proteggere i loro interessi nazionali e molti di loro cercheranno di affermarsi come leader".
Affidabilità dei quadri volontari
Affidarsi a quadri volontari, in qualsiasi forma, non è storicamente affidabile.
Dal fallimento della Società delle Nazioni e dell'Accordo di Munch negli anni '30 al Protocollo di Kyoto, all'Accordo di Parigi, ai Principi Guida delle Nazioni Unite (UNGP) e, nel mondo delle imprese, allo scandalo Enron, i tentativi passati di politiche multilaterali volontarie non ispirano fiducia.
La politica globale in materia di IA rischia di seguire le orme storiche, con promesse che si infrangono sugli scogli della realpolitik. Per quanto riguarda la politica sull'IA, è già stato evidenziato uno squilibrio nella rappresentanza e nell'influenza. Mike Katell, borsista di etica presso l'Alan Turing Institute, ha evidenziato le disparità regionali"Ci sono grandi lacune nel Sud globale. In Africa sta accadendo ben poco".
Inoltre, la regolamentazione richiede processi legali rigorosi e solidi per chiedere conto a società estremamente potenti, come Microsoft e Google.
Gli Stati Uniti, il Regno Unito, l'Unione Europea e la Cina possono permettersi di creare i tipi di quadri legislativi necessari per tentare almeno di chiedere conto alle aziende tecnologiche dell'IA, ma lo stesso non si può dire della maggior parte dei Paesi in via di sviluppo.
Questo concentra la protezione legale nei Paesi più ricchi, lasciando gli altri vulnerabili allo sfruttamento, sia in termini di manodopera per i servizi di etichettatura dei dati, fondamentali per lo sviluppo dell'IA, sia in termini di dati, che le aziende di IA potrebbero facilmente raccogliere a causa della mancanza di diritti digitali.
Le priorità regionali sono diverse
La regolamentazione dell'IA non è solo una questione interna, ma una pedina strategica sullo scacchiere internazionale.
Gli Stati Uniti, ad esempio, hanno mostrato la loro mano con ordini esecutivi che cercano di salvaguardare l'innovazione dell'IA, assicurando al contempo che rimanga allineata con i valori e le norme democratiche.
Allo stesso modo, l'UE ha proposto in modo proattivo la legge sull'IA, che mirava a stabilire presto standard globali per lo sviluppo e l'utilizzo dell'IA. Tuttavia, l'UE è stata probabilmente troppo precoce, rischiando che la sua legislazione diventasse obsoleta o poco definita per l'attuale industria dell'IA, dimostrando inoltre come il "guardare e aspettare" sia un gioco strategico oltre che pratico.
Finora è stato difficile unificare il blocco dell'UE sulle sfumature più sottili della regolamentazione dell'IA, come ad esempio i limiti da fissare e per chi, e come le forze dell'ordine dovrebbero agire in caso di non conformità. Sebbene la legge sarà probabilmente ratificata a breve, il suo impatto sull'attuale ricerca e sviluppo in materia di IA dirà quanto la legge sia efficace nell'imporre la conformità.
Nel frattempo, altri paesi hanno lasciato intendere che elaboreranno le proprie regole, come il Canada e il Giappone, che hanno accennato a prossime iniziative politiche in materia di IA.
Inoltre, le principali potenze dell'IA sono consapevoli che la definizione di quadri normativi può fornire loro un vantaggio competitivo. I regolamenti che propongono non solo stabiliscono gli standard per l'uso etico dell'IA, ma definiscono anche il campo di gioco per la concorrenza economica.
Il panorama della governance dell'IA è destinato a diventare un mosaico di approcci e filosofie diverse.
"Si intensificano i dibattiti sulla "guerra fredda dell'intelligenza artificiale
La posizione aggressiva degli Stati Uniti, che vogliono diventare un modello occidentale per lo sviluppo dell'intelligenza artificiale, ha un altro aspetto: rafforza la loro posizione nei confronti della Cina.
Riflettendo una rivalità prevalentemente tecnologica piuttosto che nucleare o ideologica, la competizione tra Stati Uniti e Cina è stata definita dai media "guerra fredda dell'intelligenza artificiale" o, forse più innocuamente, "gara dell'intelligenza artificiale".
L'utilizzo dell'IA per scopi militari è al centro della narrativa statunitense sulla restrizione del commercio con la Cina, e la tecnologia dei semiconduttori sta emergendo come un campo di battaglia cruciale a causa della sua importanza fondamentale per la competitività dell'industria dell'IA.
La narrazione della guerra fredda dell'intelligenza artificiale ha preso piede dopo l'annuncio della Cina di voler diventare il leader mondiale dell'intelligenza artificiale entro il 2030. Questa affermazione ha suscitato preoccupazione e inviti agli Stati Uniti a mantenere la supremazia tecnologica, non solo per il loro bene ma anche per i valori democratici in generale, dato il potenziale dell'IA di rafforzare i regimi autoritari, come osservato da alcuni nell'uso della tecnologia da parte della Cina per la sorveglianza dello Stato.
Personaggi di alto profilo come l'ex CEO di Google Eric Schmidt e il politologo Graham T. Allison hanno successivamente lanciato l'allarme sul rapido progresso della Cina nell'IA, suggerendo che gli Stati Uniti potrebbero essere in ritardo in aree cruciali.
Inoltre, il potenziale uso non etico dell'IA, associato principalmente alla Cina, presenta un abisso ideologico che ricorda la prima guerra fredda. Le considerazioni etiche sull'impiego dell'IA sono quindi diventate un elemento narrativo centrale nelle discussioni su questa emergente guerra fredda.
Politico ha poi suggerito che un'alleanza di nazioni democratiche potrebbe essere necessaria per contrastare l'ascesa della Cina nell'IA.
L'industria dei semiconduttori è particolarmente controversa e Taiwan svolge un ruolo critico nelle tensioni geografiche. La Taiwan Semiconductor Manufacturing Company (TSMC) è al centro, e la maggior parte dei semiconduttori del mondo sono prodotti o passano per Taiwan - un Paese la cui sovranità non è riconosciuta dalla Cina. Anche la maggior parte dei chip di Nvidia sono prodotti a Taiwan.
Le tensioni si sono riversate anche sulle restrizioni commerciali, come si è visto quando i funzionari statunitensi ed europei hanno citato la "guerra fredda dell'intelligenza artificiale" come giustificazione per vietare la tecnologia 5G di Huawei nei processi di appalto pubblico per motivi di sorveglianza.
Inoltre, sia l'amministrazione Trump che quella Biden hanno imposto limitazioni all'azienda olandese ASML, impedendo l'esportazione di apparecchiature avanzate per la produzione di semiconduttori in Cina, sempre citando rischi per la sicurezza nazionale.
Sul fronte della politica industriale, gli Stati Uniti hanno varato l'Innovation and Competition Act e successivamente il CHIPS and Science Act, che convoglia miliardi in tecnologia e produzione per contrastare la minaccia cinese. L'UE ha seguito questo approccio con la sua legge sui chip europei, cercando di rafforzare le sue capacità di produzione di semiconduttori.
La regolamentazione dell'IA sta forse entrando in una nuova fase di più intenso dibattito geopolitico.
Parallelamente, alcuni dubitano addirittura che la la tecnologia presenta rischi su larga scalamentre altri ne sono certi. La confusione da tutte le parti è palpabile.