Dirigenti del settore tecnologico, ricercatori di IA, sostenitori dei diritti civili e leader del mondo del lavoro si sono riuniti in un'unica stanza a Capital Hill per discutere del futuro dell'IA.
Ospitato dal leader della maggioranza del Senato Charles "Chuck" Schumer, l'AI Insight Forum si proponeva di essere la "base" per una politica bipartisan sull'AI.
"Solo il Congresso può fare questo lavoro", ha sottolineato Schumer, esortando i legislatori ad abbandonare l'approccio "con la testa nella sabbia" all'IA.
"Oggi iniziamo un'impresa enorme, complessa e vitale: costruire una base per una politica bipartisan sull'IA che il Congresso possa approvare", ha proseguito.
In una sala che in passato ha ospitato indagini sul Titanic e sul Watergate erano presenti, tra gli altri, Elon Musk di Tesla, Mark Zuckerberg di Meta, Sundar Pichai di Google e Sam Altman di OpenAI.
PRIMO SGUARDO:
Il nostro primo forum bipartisan sull'intelligenza artificiale sta per iniziare! Stiamo riunendo questo gruppo equilibrato e diversificato per parlare di come il Congresso debba unirsi alla rivoluzione dell'IA.
Abbiamo bisogno di tutte le forze per massimizzare i benefici sociali dell'IA e ridurre al minimo i suoi numerosi rischi. pic.twitter.com/0ZYiwIzFUp
- Chuck Schumer (@SenSchumer) 13 settembre 2023
La gravità dell'occasione non è sfuggita a nessuno, non da ultimo per la sua natura di evento a porte chiuse, che ha suscitato la costernazione di molti.
Nel complesso, l'evento ha sottolineato l'urgente necessità di una regolamentazione dell'IA concordata tra le parti per promuovere l'innovazione e proteggere dai danni.
Musk ha detto dell'evento: "Penso che questo incontro potrebbe passare alla storia come importante per il futuro della civiltà".
Sebbene il tono del Forum fosse per lo più sincero, alcuni hanno sottolineato come Musk e Zuckerberg fossero seduti ai lati opposti della stanza, in quanto i due avevano discusso di organizzare un "combattimento in gabbia" a Las Vegas.
Non sarebbe stata la prima rissa a Capitol Hill.
Elon Musk e Mark Zuckerberg seduti ai lati opposti del tavolo a forma di U per il forum sull'intelligenza artificiale: pic.twitter.com/xaJLxo2Pe1
- Frank Thorp V (@frankthorp) 13 settembre 2023
Il tempo scorre veloce
L'intelligenza artificiale si sta evolvendo a un ritmo senza precedenti, plasmando settori che vanno dalla sanità alla guerra.
Abbiamo visto farmaci scoperti dall'AI vai alla sperimentazione clinica, arti controllati dalla mente restituire il movimento alle persone paralizzate, e le interfacce cervello-corpo rifornire il discorso delle vittime di ictus.
Abbiamo assistito al potenziamento dell'intelligenza artificiale diagnostica delle malattie, Risonanza magnetica, rilevamento delle inondazioni, e conservazione della fauna selvatica.
Ma anche il lato oscuro dell'intelligenza artificiale ha fatto la sua comparsa, con tecnologia militare automatizzata, algoritmi distorti che ha comportato una falsa detenzione, una colossale impatti ambientali, e cause legali a volontà.
A maggio, il CEO di OpenAI Sam Altman ha testimoniato davanti al Congresso, avvertendo che l'IA potrebbe "causare danni significativi al mondo".
Poco dopo, l'organizzazione no-profit Center of AI Safety (CAIS) ha rilasciato una dichiarazione in cui paragona i rischi dell'IA a quelli dell'industria automobilistica. pandemie e guerra nucleare.
I leader del settore tecnologico hanno ribadito il senso di urgenza del forum. "Abbiamo bisogno che il governo guidi, e non vediamo l'ora di collaborare con voi", ha dichiarato Altman, secondo quanto riportato dal sito Washington Post.
Lo stesso Presidente Biden ha tenuto diversi incontri sull'IA quest'anno e le commissioni del Congresso hanno condotto almeno 10 audizioni incentrate sull'IA che hanno riguardato questioni dalla sicurezza nazionale ai diritti umani.
Lo stesso vale per l'UE, il Regno Unito e la Cina, che stanno adottando misure di regolamentazione per bloccare gli impatti negativi dell'IA e al tempo stesso coglierne i vantaggi: un gioco di equilibri intricato e ad alto rischio.
Equilibrio: profitti, etica e regolamentazione
Come previsto, la collaborazione al Forum non è stata priva di complessità e contraddizioni.
Ad esempio, mentre Altman si è espresso a favore di un'agenzia governativa specializzata nella regolamentazione dell'IA, Google si è opposta all'idea, suggerendo che la supervisione sia distribuita tra vari enti governativi.
Questo storico incontro non è stato solo una discussione politica, ma ha rappresentato dibattiti irrisolti su etica, redditività e controllo.
Da un lato, l'entusiasmo per il potenziale dell'IA è palpabile.
D'altro canto, cresce l'apprensione per le implicazioni etiche dell'IA, soprattutto per quanto riguarda la discriminazione e la sicurezza nazionale.
Questo scisma è stato evidente tra gli stessi partecipanti. Per esempio, Alex Karp, CEO di Palantir, ha espresso fiducia nelle aziende tecnologiche, affermando: "Sì. Perché siamo bravi a farlo", quando gli è stato chiesto se gli americani dovrebbero fidarsi delle aziende tecnologiche per la loro sicurezza.
Nel frattempo, i critici al di fuori della riunione erano meno ottimisti. Meredith Whittaker, presidente di Signal, ha visto l'evento come una legittimazione dei "cattivi risultati" e ha dichiarato: "Hanno riunito la leadership delle aziende che vogliono dominare e trarre profitto dal ciclo dell'IA".
Le osservazioni del senatore Josh Hawley hanno rafforzato questo sentimento: "Non capisco perché dovremmo invitare tutti i più grandi monopolisti del mondo a venire a dare consigli al Congresso su come aiutarli a fare più soldi e poi chiuderli al pubblico".
Altre parti interessate hanno detto la loro, tra cui Liz Shuler, presidente del sindacato A.F.L-C.I.O., che ha dichiarato: "I lavoratori sono stanchi di essere cavie in un esperimento di A.I.".
Il movimento sindacale sa che l'IA può dare potere ai lavoratori e aumentare la prosperità, ma solo se i lavoratori sono coinvolti nella sua creazione e nelle regole che la governano".
La strada da percorrere
Che cosa viene dopo? Probabilmente si tratta di un puzzle complesso che coinvolge parti interessate con interessi contrastanti.
Sebbene questa sia la prima voce di quelle che, nelle intenzioni di Schumer, saranno numerose, l'AI Insight Forum non avrà fornito risposte definitive, ma ha segnato un momento storico, un primo passo verso un approccio collaborativo, anche se controverso, alla gestione dell'IA.
I mesi e gli anni a venire riveleranno se questo forum senza precedenti è servito come base autentica per una regolamentazione significativa o se è stato solo un complesso balletto di programmi in competizione.
Forum AI Insight: 5 cose che abbiamo imparato
- Schumer ha sottolineato l'importanza dell'evento: "Perché oggi iniziamo un'impresa enorme, complessa e vitale: costruire una base per una politica bipartisan sull'IA che il Congresso possa approvare". Schumer intende che il Forum dia definitivamente forma alla normativa statunitense, anche se probabilmente si tratterà di un processo iterativo, simile a un mosaico.
- L'incontro è stato criticato per la sua natura a porte chiuse, che ha impedito ai senatori di porre domande. La senatrice Elizabeth Warren ha dichiarato: "Il popolo del Massachusetts non mi ha mandato qui per non fare domande", esprimendo preoccupazione per la mancanza di interazione diretta e di domande durante il forum. Il senatore Josh Hawley ha detto che l'evento è stato un "gigantesco cocktail party".
- La legislazione sull'IA è ora considerata urgente e anche il Presidente Biden ha tenuto numerosi incontri sul tema. A gruppo bipartisan di senatori ha recentemente presentato una proposta di legge per vietare l'uso dell'IA generativa per falsificare i candidati federali negli annunci politici.
- Alcuni dirigenti del settore tecnologico, tra cui Sam Altman di OpenAI, hanno proposto la creazione di una nuova agenzia governativa incentrata sulla regolamentazione dell'IA. Tuttavia, questa proposta è stata accolta con scetticismo da alcuni legislatori preoccupati di ampliare il raggio d'azione del governo.
- Il forum ha messo in luce le divisioni esistenti nei circoli tecnologici e politici su come affrontare la regolamentazione dell'IA. Mentre alcuni chiedono un approccio più cauto, altri, come il CEO di Palantir Alex Karp, sono stati più ottimisti, affermando che gli americani dovrebbero fidarsi delle aziende tecnologiche per tenerli al sicuro dalla tecnologia "Perché siamo bravi a farlo".
L'appetito globale per le discussioni e i dibattiti sull'IA è aumentato nel tentativo di soddisfare la natura in rapida evoluzione della tecnologia.
L'IA è eccezionalmente difficile da catturare e limitare attraverso i processi legislativi, poiché è veloce, sfuggente e si espande rapidamente in ogni settore.
L'AI Insight Forum inaugurale ha fatto storia, ma sarà l'intelligenza artificiale a scrivere il proprio futuro o l'umanità riuscirà a mantenere la presa?