In un annuncio di mercoledì, il leader della maggioranza del Senato Chuck Schumer ha presentato la sua attesissima proposta legislativa per la gestione dell'IA. Ha avvertito che "il Congresso deve unirsi alla rivoluzione dell'IA" per sfruttare e governare la tecnologia.
Schumer, democratico di New York, ha indicato il suo piano di avviare una serie di "Forum di approfondimento sull'IA" nel corso dell'anno. Questi forum riuniranno leader dell'IA, ricercatori, leader della comunità, specialisti della sicurezza nazionale e altri esperti.
I risultati di questi incontri, ha detto, serviranno come base per le raccomandazioni politiche per il Congresso.
Parlando al Center for Strategic and International Studies, un'organizzazione bipartisan senza scopo di lucro che si occupa di politica estera e sicurezza nazionale, Schumer ha dichiarato: "Alcuni esperti prevedono che in pochi anni il mondo potrebbe essere del tutto irriconoscibile da quello in cui viviamo oggi. Ecco cos'è l'IA: cambia il mondo".
Riconoscendo i recenti cambiamenti apportati dall'IA, Schumer ha avvertito: "Non abbiamo altra scelta che riconoscere che i cambiamenti dell'IA stanno arrivando, e in molti casi sono già qui. Li ignoriamo a nostro rischio e pericolo. Molti vogliono ignorare l'IA perché è così complessa. Ma quando si tratta di IA, non possiamo essere struzzi che mettono la testa sotto la sabbia".
Bilanciare rischi e benefici
Schumer ha anche evidenziato il potenziale positivo dell'IA, da lotta alle malattie e carestia all'aumento della produttività. D'altra parte, ha espresso le preoccupazioni sollevate sui suoi potenziali pericoli, tra cui lo sconvolgimento del lavoro, la disinformazione e le frodi.
Ha messo in guardia da possibili minacce all'integrità delle elezioni, tra cui dichiarazioni false e distorte e altre forme di calunnia volte a danneggiare le campagne elettorali o chatbot che diffondono disinformazione per influenzare gli elettori. "L'IA potrebbe essere usata per rendere itteriche e persino totalmente screditate le nostre elezioni già l'anno prossimo", ha dichiarato Schumer. "Senza prendere provvedimenti per assicurarci che l'IA preservi le fondamenta del nostro Paese, rischiamo la sopravvivenza stessa della nostra democrazia".
Schumer ha dichiarato che 6 mesi di discussioni con oltre 100 stakeholder dell'IA sono culminati in un progetto legislativo chiamato "SAFE Innovation for AI". Si compone di 5 elementi chiave:
- Sicurezza: Rafforzare la sicurezza nazionale affrontando le minacce dell'IA e garantendo al contempo la sicurezza economica dei lavoratori, in particolare di quelli a basso reddito.
- Responsabilità: Promuovere lo sviluppo di sistemi "responsabili" per affrontare la disinformazione e i pregiudizi e salvaguardare i creatori affrontando i problemi di copyright e preservando i diritti di proprietà intellettuale.
- Fondazioni: Garantire che i sistemi di IA siano in linea con i valori democratici, salvaguardare le elezioni, accentuare i benefici sociali dell'IA riducendo al minimo i potenziali danni e impedire al Partito Comunista Cinese di stabilire le norme globali in materia di IA.
- Spiegabilità: Le aziende devono documentare come i sistemi di IA raggiungono un risultato specifico in termini chiari e comprensibili. Ciò consentirà agli utenti di comprendere meglio il ragionamento alla base della particolare risposta del sistema e la sua origine.
- L'innovazione: Sostenere i progressi degli Stati Uniti nelle tecnologie dell'IA e promuovere gli Stati Uniti come leader mondiale dell'IA.
"L'innovazione deve essere la nostra stella polare", ha continuato Schumer. "Ma se le persone pensano che l'innovazione dell'IA non sia fatta in modo sicuro, se non ci sono protezioni adeguate - e il pubblico sente che l'innovazione non sarà sicura - questo soffocherà o addirittura fermerà del tutto l'innovazione".
Questo appello all'azione è in linea con gli avvertimenti urgenti degli esperti di IA, compresa una dichiarazione del Center for AI Safety (CAIS) firmato da oltre 350 CEO del settore tecnologico, accademici, personaggi pubblici e altri esperti di rilievo.
Durante una visita alla Bay Area martedì, il Presidente Joe Biden ha incontrato 8 esperti di AItra cui Jim Steyer, amministratore delegato di Common Sense Media, Sal Khan, fondatore e amministratore delegato di Khan Academy, e Tristan Harris, direttore esecutivo e cofondatore del Center for Humane Technology ed ex responsabile dell'etica del design di Google.
Biden ha riconosciuto il rapido ritmo del cambiamento tecnologico guidato dall'IA, affermando: "Vedremo più cambiamenti tecnologici nei prossimi 10 anni di quanti ne abbiamo visti negli ultimi 50 - e forse anche oltre".
Incoraggiata la cooperazione bipartisan sull'IA
Schumer sta collaborando strettamente con la Casa Bianca sulla strategia dell'IA, ospitando briefing bipartisan per istruire i senatori sull'IA.
Evidenziando la necessità di un approccio innovativo per la gestione delle politiche sull'IA, Schumer ha sottolineato che i tipici processi legislativi potrebbero non essere sufficienti in questo panorama tecnologico in rapida evoluzione. I "Forum di approfondimento sull'IA" da lui proposti analizzeranno, tra gli altri argomenti, il copyright e la proprietà intellettuale, la sicurezza nazionale, l'occupazione e la preparazione agli scenari peggiori.
Schumer ha dichiarato: "L'IA si sta evolvendo così rapidamente - ma è anche così complessa - che è necessario un nuovo approccio. Le audizioni non saranno sufficienti. Abbiamo bisogno di un approccio globale, perché è questo che richiedono la complessità e la velocità dell'IA".
Il discorso di Schumer dimostra che l'era dell'IA sta nascendo e che è giunto il momento di una cooperazione bipartisan per navigare nei territori inesplorati della tecnologia.
"Come per molte grandi imprese nella storia della nostra nazione, dobbiamo procedere con bipartitismo e cooperazione", ha concluso. "Dobbiamo mettere da parte i blocchi ideologici e gli interessi politici. Solo così i nostri sforzi avranno successo".
La regolamentazione dell'IA negli Stati Uniti: una cronologia
Rispetto all'UE e alla Cina, il panorama normativo statunitense in materia di IA è rimasto alquanto indefinito.
Regolamenti specifici del settore
Sebbene negli Stati Uniti manchi una regolamentazione generale sull'IA, si sono registrate alcune attività specifiche per il settore che forniscono indizi sulla governance futura.
In particolare, il National Institute of Standards and Technology (NIST), la Federal Trade Commission (FTC) e la Food and Drug Administration (FDA) hanno tutti emanato linee guida sull'IA.
Il NIST sull'IA
Il 26 gennaio 2023, il NIST ha pubblicato il documento Quadro di gestione del rischio dell'intelligenza artificiale 1.0 (RMF).
Questo framework è una guida volontaria per le aziende tecnologiche che progettano, sviluppano, distribuiscono o utilizzano sistemi di IA. Il suo obiettivo è gestire i rischi associati all'IA, ponendo l'accento sullo sviluppo affidabile e responsabile dei sistemi di IA.
L'RMF identifica 7 caratteristiche dei sistemi di intelligenza artificiale affidabili:
- Sicuro: Monitora, controlla o interviene in altro modo sul sistema di IA per prevenire danni o pericoli per la vita, la salute o la proprietà umana.
- Sicuro e resiliente: Proteggere dagli attacchi e gestire i potenziali incidenti gravi.
- Spiegabile e interpretabile: I risultati sono spiegabili e non sono una "scatola nera".
- Privacy potenziata: Protegge l'autonomia umana attraverso il mantenimento dell'anonimato, della riservatezza e del controllo.
- Equo, con pregiudizi gestiti: Promuove l'equità e l'uguaglianza e attenua i vari pregiudizi.
- Responsabilità e trasparenza: Fornisce informazioni sul ciclo di vita del sistema di IA e mantiene le pratiche di governance per ridurre i potenziali danni.
- Valido e affidabile: Assicura che il sistema di intelligenza artificiale funzioni come previsto attraverso test e monitoraggi continui.
FTC sull'IA
La FTC ha segnalato un maggiore controllo sulle aziende che utilizzano l'IA. Ha lanciato diversi avvertimenti alle aziende per evitare pratiche sleali o fuorvianti.
I funzionari hanno indicato che le leggi esistenti si applicano ancora a varie attività legate all'IA. Ad esempio, Lina Khan, presidente della FTC, afferma che le agenzie di controllo devono essere consapevoli di come le leggi esistenti si applicano alla discriminazione e ai pregiudizi legati all'IA.
FDA sull'IA
La FDA ha annunciato l'intenzione di regolamentare gli strumenti e i dispositivi clinici alimentati dall'intelligenza artificiale per il processo decisionale in ambito sanitario.
Si tratta di una delle prime pubblicazioni normative pratiche incentrate sull'IA, pubblicato inizialmente nel 2019. I piani della FDA erano ampliato nel 2023.
Guardare al futuro
Il 14 giugno 2023, è stata proposta una legislazione bipartisan per rendere le aziende di social media responsabili dei contenuti dannosi generati dall'intelligenza artificiale.
La proposta di legge, introdotta dai senatori Josh Hawley, repubblicano, e Richard Blumenthal, democratico, potrebbe aprire la strada a un'azione legale contro le aziende per i danni causati dalla tecnologia basata sull'intelligenza artificiale, come ad esempio i falsi profondi.
I truffatori stanno già utilizzando i falsi profondi per frode e disinformazioneche, secondo un esperto di sicurezza, potrebbe costare I contribuenti statunitensi guadagnano miliardi all'anno.
La proposta di modifica della Sezione 230, una legge che attualmente garantisce l'immunità alle piattaforme online dalla responsabilità per i contenuti generati dagli utenti, giunge sulla scia di due casi della Corte Suprema del mese scorso che hanno confermato la portata delle protezioni della Sezione 230.
La Sezione 230 è fondamentale per i potenziali casi di diffamazione che coinvolgono sviluppatori di IA come ChatGPT, in quanto attualmente rende cause legali contro le uscite di AI come intrattabile. Attualmente, la Sezione 230 del Communications Decency Act del 1996 garantisce che i "servizi informatici interattivi" non siano ritenuti responsabili in quanto "editori o diffusori" delle informazioni fornite dagli utenti.
Blumenthal ha definito il disegno di legge come un "primo passo" verso l'implementazione di misure di salvaguardia dell'IA.
L'appoggio bipartisan alla proposta di legge dimostra il crescente interesse per la regolamentazione dell'IA, confermato dagli annunci di Schumer.
I repubblicani e i democratici concordano sulla necessità di governare l'IA, ma le opinioni divergono sulle azioni pratiche.
Negli Stati Uniti si stanno muovendo gli ingranaggi per una regolamentazione completa dell'IA, che potrebbe iniziare a comparire in un momento simile a quello dell'IA Act dell'UE, che entrerà in vigore nel 2024.