Un rapporto commissionato dal governo statunitense afferma che sono necessarie nuove misure e politiche di sicurezza per l'IA per prevenire una "minaccia di estinzione per la specie umana".
Il rapporto, disponibile su richiesta, è stato redatto da Gladstone AI, un'azienda creata nel 2022 per fornire consulenza ai dipartimenti governativi statunitensi sulle opportunità e i rischi dell'IA. Il rapporto, intitolato "An Action Plan to Increase the Safety and Security of Advanced AI", ha richiesto un anno di lavoro ed è stato finanziato con $250.000 di fondi federali.
Il rapporto si concentra sui rischi catastrofici dell'IA avanzata e propone un piano d'azione completo per mitigarli. Gli autori, ovviamente, non condividono la visione più permissiva di Yann LeCun sulle minacce dell'IA.
Il rapporto afferma che "l'ascesa dell'IA avanzata e dell'AGI [intelligenza artificiale generale] ha il potenziale per destabilizzare la sicurezza globale in modi che ricordano l'introduzione delle armi nucleari".
Le due principali categorie di rischio che solleva sono l'armamento intenzionale dell'IA e le conseguenze non intenzionali di un'IA che si comporta in modo scorretto.
Per evitare che ciò accada, il rapporto fornisce un piano d'azione composto da cinque linee di impegno (LOE) che il governo statunitense deve attuare.
Ecco la versione breve:
LOE1 - Istituire un osservatorio sull'IA per un migliore monitoraggio del panorama dell'IA. Istituire una task force per stabilire regole per lo sviluppo e l'adozione responsabile dell'IA. Usare le restrizioni della catena di fornitura per guidare la conformità degli operatori internazionali del settore dell'IA.
LOE2 - Aumentare la preparazione alla risposta agli incidenti di IA avanzata. Coordinare i gruppi di lavoro interagenzie, la formazione governativa sull'IA, il quadro di allerta precoce per rilevare le minacce emergenti dell'IA e i piani di emergenza basati su scenari.
LOE3 - I laboratori di IA sono più concentrati sullo sviluppo dell'IA che sulla sicurezza dell'IA. Il governo degli Stati Uniti deve finanziare la ricerca avanzata sulla sicurezza delle IA, anche per quanto riguarda l'allineamento scalabile delle IA.
Sviluppare standard di sicurezza e protezione per uno sviluppo e un'adozione responsabili dell'IA.
LOE4 - Istituire un'"agenzia di regolamentazione dell'IA con poteri normativi e di concessione di licenze".
Stabilire un quadro di responsabilità civile e penale per prevenire "conseguenze irrecuperabili su scala WMD", compresi "poteri di emergenza per consentire una risposta rapida a minacce in rapida evoluzione".
LOE5 - Stabilire un regime di salvaguardia dell'IA nel diritto internazionale e proteggere la catena di approvvigionamento. Promuovere il "consenso internazionale" sui rischi dell'IA con un trattato sull'IA applicato dall'ONU o da una "agenzia internazionale per l'IA".
In sintesi, l'IA potrebbe essere molto pericolosa, quindi abbiamo bisogno di molte leggi per controllarla.
Il rapporto afferma che i modelli avanzati open-source sono una cattiva idea e che il governo degli Stati Uniti dovrebbe prendere in considerazione la possibilità di rendere illegale il rilascio dei pesi dei modelli di IA, pena la reclusione.
Se questo vi sembra un po' allarmistico e pesante, non siete i soli. Il rapporto è stato criticato per la sua mancanza di rigore scientifico.
nel caso in cui vi steste chiedendo quanto seriamente prendere questo recente rapporto pic.twitter.com/Uy47sTmE0Z
- xlr8harder (@xlr8harder) 12 marzo 2024
I sostenitori dell'open-source come William Falcon, CEO di Lightning AI, hanno criticato in particolare le dichiarazioni generiche sui pericoli dei modelli aperti.
Altezza 451 ma per i pesi del modello...
Secondo TIME, l'IA open source causerà un "evento di livello estintivo per gli esseri umani" 🙄
Prima di tutto, un'affermazione molto sciocca. ma se volete davvero indossare il vostro cappello di latta, è più probabile che sia l'IA di origine ravvicinata a causare questo fenomeno.https://t.co/x4bctSjamZ pic.twitter.com/PYuwnoIbda
- William Falcon ⚡️ (@_willfalcon) 12 marzo 2024
La verità sui rischi che l'intelligenza artificiale avanzata comporta per l'umanità è probabilmente una via di mezzo tra "Moriremo tutti!" e "Non c'è da preoccuparsi".
Pagina 33 di un Indagine AI a cui fa riferimento il rapporto fornisce alcuni esempi interessanti di come i modelli di intelligenza artificiale giochino con il sistema e ingannino gli operatori per raggiungere l'obiettivo per il quale sono stati progettati.
Quando i modelli di intelligenza artificiale sfruttano già delle scappatoie per raggiungere un obiettivo, è difficile scartare la possibilità che i futuri modelli di intelligenza artificiale super intelligenti facciano lo stesso. E a quale costo?
È possibile leggere la sintesi del documento rapporto qui.