Analisi dello storico ordine esecutivo della Casa Bianca sull'IA

30 ottobre 2023

Ordine di Biden AI

Il 30 ottobre 2023 segna un progresso nella governance dell'IA: il Presidente Joe Biden ha annunciato un ordine esecutivo completo che stabilisce regole e linee guida solide per l'IA. 

L'ordine dovrebbe inaugurare una nuova era di trasparenza e standardizzazione per le aziende di IA, evidenziando la necessità di un'etichettatura chiara dei contenuti e di pratiche di watermarking.  

"Per realizzare le promesse dell'IA ed evitare i rischi, dobbiamo governare questa tecnologia, non c'è modo di evitarlo", ha dichiarato Biden durante l'evento di firma alla Casa Bianca. 

Durante l'evento, Biden ha parlato anche di falsi di intelligenza artificiale, annunciando con umorismo tra il pubblico: "Ne ho visto uno di me... ho detto, diavolo l'ho detto?".

Il ordine si concentra su una maggiore trasparenza da parte degli sviluppatori di IA e stabilisce una serie di nuovi standard, in particolare per l'etichettatura dei contenuti generati dall'IA. 

La Casa Bianca intende migliorare la "sicurezza dell'IA" attraverso l'ordine. L'ordine prevede un sorprendente obbligo per gli sviluppatori di condividere con il governo degli Stati Uniti i risultati dei test di sicurezza per i nuovi modelli di IA, qualora la tecnologia possa potenzialmente minacciare la sicurezza nazionale.

Si tratta del Defense Production Act, tipicamente riservato alle emergenze nazionali.

Per coloro che non hanno familiarità con la legislazione statunitense, gli ordini esecutivi non sono atti legislativi: non creano nuove leggi né modificano quelle esistenti. Al contrario, danno istruzioni al Congresso sulle priorità politiche.

L'ordine, pubblicato quicontiene numerose scadenze che specificano le varie azioni che devono essere intraprese per l'introduzione della legislazione sull'IA. 

Gli ordini esecutivi devono basarsi sull'autorità costituzionale o statutaria e non possono essere utilizzati per aggirare il Congresso o creare leggi unilateralmente.

Di conseguenza, molti hanno sottolineato che l'ordine esecutivo manca di meccanismi di applicazione. Non ha il peso della legislazione congressuale sull'IA.

"Il Congresso è profondamente polarizzato e persino disfunzionale, tanto che è molto improbabile che produca una legislazione significativa sull'IA nel prossimo futuro", osserva Anu Bradford, professore di diritto alla Columbia University.

L'ordine giunge pochi giorni prima che il Regno Unito si appresti ad entrare in vertice miliare sulla sicurezza dell'intelligenza artificialeche vedrà riuniti a Bletchley Park politici, ricercatori, dirigenti tecnologici e membri della società civile. Parteciperà anche la vicepresidente Kamala Harris. Al vertice sarà rappresentata anche la Cina. 

"Intendiamo che le azioni che stiamo intraprendendo a livello nazionale servano da modello per l'azione internazionale", ha dichiarato Harris all'evento della Casa Bianca. 

Questa dichiarazione richiama l'attenzione sulle critiche secondo cui l'ordine potrebbe potenzialmente minare la collaborazione internazionale aperta in vista del vertice sulla sicurezza dell'IA.

Gli Stati Uniti hanno iniziato lentamente a regolamentare l'IA e, per la natura degli ordini esecutivi, continuano a farlo. È forse sfacciato suggerire ad altri Paesi di seguire la sua strada.

Harris ha proseguito affermando che gli Stati Uniti "applicheranno le regole e le norme internazionali esistenti con l'obiettivo di promuovere l'ordine e la stabilità globale e, ove necessario, di costruire il sostegno per ulteriori regole e norme che soddisfino questo momento".

Cosa dice la Casa Bianca

L'ordine introduce standard rigorosi per l'IA, salvaguardando la privacy degli americani, promuovendo l'equità e i diritti civili, proteggendo i consumatori e i lavoratori, alimentando l'innovazione e la concorrenza e rafforzando la leadership americana nell'IA. 

Completa impegni volontari di 15 aziende leader per promuovere lo sviluppo sicuro e affidabile dell'IA.

Uno degli elementi più rilevanti dell'ordine è che il Presidente ha dichiarato che gli sviluppatori di sistemi di intelligenza artificiale "potenti" dovranno condividere i risultati dei test di sicurezza e le informazioni critiche con il governo degli Stati Uniti, al fine di garantire che questi sistemi siano sicuri e affidabili prima del rilascio pubblico.

Il National Institute of Standards and Technology (NIST) guiderà gli sforzi di "red teaming" per testare e analizzare la sicurezza dei modelli di IA.

Il Red Team è il processo di verifica e stress test delle funzionalità e della sicurezza dei modelli di intelligenza artificiale. 

Per quanto riguarda la privacy, l'appello del Presidente per una legislazione bipartisan sulla privacy dei dati riflette la comprensione dell'urgenza della situazione.

Tuttavia, come si è detto, l'efficacia di queste misure dipenderà in ultima analisi dall'azione rapida e decisa del Congresso, che storicamente è stato lento nel legiferare su questioni legate alla tecnologia.

Inoltre, l'ordine esecutivo prende una posizione forte sulla promozione dell'equità e sulla lotta alla discriminazione algoritmica, con direttive per garantire l'equità negli alloggi, nella giustizia penale e nei programmi di benefici federali. 

Anche se si tratta di passi positivi, il successo di queste iniziative dipenderà da un'applicazione rigorosa e da una supervisione continua. 

L'ordine affronta otto aree chiave. 

1. Nuovi standard per la sicurezza dell'IA

  • Gli sviluppatori di potenti sistemi di intelligenza artificiale devono condividere i risultati dei test di sicurezza e le informazioni fondamentali con il governo degli Stati Uniti.
  • Lo sviluppo di standard, strumenti e test per garantire la sicurezza e l'affidabilità dei sistemi di IA, guidato dal NIST.
  • Protezione contro il potenziale dell'IA nell'ingegnerizzazione di materiali biologici pericolosi, stabilendo standard solidi per lo screening delle sintesi biologiche.
  • Stabilire protocolli per salvaguardare gli americani da frodi e inganni basati sull'IA, compresi gli standard per il rilevamento dei contenuti generati dall'IA e l'autenticazione delle comunicazioni ufficiali.
  • Lancio di un programma di cybersecurity avanzato per sfruttare l'intelligenza artificiale nella protezione di software e reti.

2. Proteggere la privacy degli americani

  • Sostenere il sostegno federale allo sviluppo e all'uso di tecniche di conservazione della privacy nell'IA.
  • Rafforzare la ricerca sulle tecnologie per la tutela della privacy.
  • Migliorare le linee guida delle agenzie federali per garantire la privacy nella raccolta e nell'uso dei dati, in particolare delle informazioni di identificazione personale.

3. Promozione dell'equità e dei diritti civili

  • Fornire una guida per mitigare il potenziale dell'IA di esacerbare la discriminazione negli alloggi, nella giustizia e nell'occupazione.
  • Promuovere l'equità in tutto il sistema di giustizia penale attraverso lo sviluppo di best practice nell'applicazione dell'IA.

4. Difendere i consumatori, i pazienti e gli studenti

  • Incoraggiare l'uso responsabile dell'IA nell'assistenza sanitaria per lo sviluppo di farmaci accessibili e salvavita e garantire la sicurezza nelle pratiche sanitarie che coinvolgono l'IA.
  • Facilitare il ruolo trasformativo dell'IA nell'istruzione, sostenendo gli educatori nell'impiego di strumenti di apprendimento potenziati dall'IA.

5. Sostegno ai lavoratori

  • Sviluppare principi e best practice per bilanciare i benefici e i danni dell'IA sul posto di lavoro.
  • Condurre studi completi sull'impatto dell'IA sul mercato del lavoro e rafforzare il sostegno federale ai lavoratori che devono affrontare le interruzioni del lavoro dovute all'IA.

6. Promuovere l'innovazione e la concorrenza

  • Catalizzare la ricerca sull'IA a livello nazionale e garantire un ecosistema di IA competitivo.
  • Snellire i processi di immigrazione per le persone altamente qualificate nei settori critici dell'IA.

7. Promuovere la leadership americana all'estero

  • Rafforzare le collaborazioni e i quadri internazionali nell'IA.
  • Promuovere lo sviluppo e la diffusione dell'IA in modo sicuro e responsabile in tutto il mondo.

8. Garantire un uso responsabile ed efficace dell'IA da parte dei governi

  • Fornire una guida chiara alle agenzie federali sull'uso, l'approvvigionamento e la diffusione dell'IA.
  • Migliorare l'acquisizione di talenti nel settore dell'IA in tutto il governo e fornire formazione sull'IA ai dipendenti federali.

L'amministrazione Biden-Harris sta cercando di trovare un equilibrio tra il mantenimento e il potenziamento dell'industria statunitense dell'intelligenza artificiale, leader a livello mondiale, e il contenimento di rischi evidenti. 

Falsi profondi e disinformazione sono in cima ai pensieri della maggior parte delle persone, visto che ora abbiamo prove tangibili che potrebbero influenzare i voti elettorali. 

In vista delle elezioni politiche statunitensi del prossimo anno, forse non sorprende che l'ordine aumenti la pressione per filigranare ed evidenziare i contenuti generati dall'intelligenza artificiale, in modo che gli utenti possano facilmente distinguere quelli veri da quelli falsi. 

Tecnicamente parlando, tuttavia, ci sono nessuna soluzione solida per raggiungere questo obiettivo in pratica. 

Reazioni del settore

Le reazioni del settore sono naturalmente contrastanti. Molti elogiano il rapido progresso verso la firma dell'ordine, mentre altri sottolineano la mancanza di legislazione e di informazioni sulle azioni di applicazione. 

Ancora una volta, l'ordine indica che la Casa Bianca vuole che il Congresso agisca sulla politica dell'IA.

L'unica eccezione è rappresentata dal Defense Production Act, che è stato invocato per costringere le aziende di IA a informare il governo quando sviluppano modelli che interagiscono con la sicurezza nazionale.

La formulazione ufficiale è un modello di IA che pone un "serio rischio per la sicurezza nazionale, la sicurezza economica nazionale o la salute e la sicurezza pubblica nazionale".

Alcuni hanno sottolineato che, rispetto alla legge europea sull'IA, non ci sono indicazioni sulla trasparenza dei dati di formazione, per la quale diversi sviluppatori di IA stanno affrontando cause legali.


Adnan MasoodIl Chief AI Architect dell'UST ha applaudito l'iniziativa, affermando: "L'ordine sottolinea il necessario spostamento dell'attenzione globale verso la regolamentazione dell'IA, soprattutto dopo il boom dell'IA generativa a cui abbiamo assistito quest'anno". 

Avivah Litan, vicepresidente di Gartner Research, ha osservato che, sebbene le regole inizino in maniera forte, ci sono ancora aree in cui i mandati non sono all'altezza. Ha messo in dubbio la definizione dei sistemi di IA "più potenti", l'applicazione ai modelli di IA open source e l'applicazione degli standard di autenticazione dei contenuti sulle piattaforme dei social media. 

Bradley Tusk, CEO di Tusk Ventures, ha affermato che gli sviluppatori di IA non sono propensi a condividere i dati proprietari con il governo, affermando: "Senza un reale meccanismo di applicazione, che l'ordine esecutivo non sembra avere, il concetto è ottimo ma l'adesione potrebbe essere molto limitata".

Randy Lariar, AI security leader di Optiv, ha dichiarato: "Mi preoccupa il fatto che molti modelli open-source, che derivano dai grandi modelli fondamentali, possano essere altrettanto rischiosi senza l'onere del red teaming - ma questo è un inizio".

Ashley LeonardL'amministratore delegato di Syxsense ha aggiunto che sarà molto interessante vedere come verrà attuato l'ordine. "Anche le aziende più avanzate hanno bisogno di risorse reali - budget, tempo e personale - per stare al passo con le vulnerabilità e le correzioni dei bug", ha dichiarato Leonard.

Max Tegmark, professore al Massachusetts Institute of Technology e presidente del Future of Life Institute, ha sottolineato che l'ordine deve essere dotato di un piano per la creazione e l'applicazione della legislazione, affermando: "I politici, compresi quelli del Congresso, devono prendersi cura dei loro cittadini promulgando leggi con i denti che affrontino le minacce e salvaguardino il progresso".

Jaysen Gillespie, responsabile di Analytics e Data Science di RTB House, ha valutato positivamente l'ordine esecutivo, affermando che la regolamentazione dell'IA è un argomento in cui è davvero possibile un approccio bipartisan. 

Alejandro Mayorkas della Homeland Security ha dichiarato: "La velocità senza precedenti dello sviluppo e dell'adozione dell'IA presenta rischi significativi che dobbiamo mitigare rapidamente, insieme alle opportunità di avanzare e migliorare il nostro lavoro per conto del popolo americano... Il documento indirizza il DHS a gestire l'IA nelle infrastrutture critiche e nel cyberspazio, a promuovere l'adozione di standard di sicurezza dell'IA a livello globale, a ridurre il rischio di utilizzo dell'IA per creare armi di distruzione di massa, a combattere il furto di proprietà intellettuale legato all'IA e a garantire che il nostro sistema di immigrazione attragga i talenti per sviluppare un'IA responsabile negli Stati Uniti".

Casey EllisLa direttiva impone agli sviluppatori di condividere i risultati dei test di sicurezza con il governo degli Stati Uniti, assicurando che i sistemi di IA siano ampiamente controllati prima del rilascio pubblico", ha dichiarato il fondatore e CTO di Bugcrowd. Inoltre, sottolinea l'importanza dell'IA nel rafforzare la cybersecurity, in particolare nel rilevare le frodi abilitate dall'IA e nel migliorare la sicurezza del software e della rete. L'ordine sostiene anche lo sviluppo di standard, strumenti e test per la sicurezza dell'IA".

Un passo necessario, ma con sfide da affrontare

L'ordine esecutivo del Presidente Biden sull'IA tenta di essere completo, ma il Congresso deve far seguire alla sua urgenza un'azione legislativa. Questo è tutt'altro che garantito. 

Pur stabilendo standard rigorosi ed enfatizzando la trasparenza, la responsabilità e la prevenzione di pratiche discriminatorie, la vera efficacia di questa iniziativa dipenderà dalla sua attuazione e dalla capacità di bilanciare la supervisione normativa con la promozione dell'innovazione. 

Con l'imminente AI Safety Summit, si intensificano le conversazioni sui rischi dell'IA e su come mitigarli.

Il controllo completo dell'IA dipende ancora dalla velocità e dall'efficienza delle leggi e dalla capacità di farle rispettare.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni