Secondo un rapporto commissionato dagli Stati Uniti, l'intelligenza artificiale rappresenta una "minaccia di estinzione".

13 marzo 2024

Un rapporto commissionato dal governo statunitense afferma che sono necessarie nuove misure e politiche di sicurezza per l'IA per prevenire una "minaccia di estinzione per la specie umana".

Il rapporto, disponibile su richiesta, è stato redatto da Gladstone AI, un'azienda creata nel 2022 per fornire consulenza ai dipartimenti governativi statunitensi sulle opportunità e i rischi dell'IA. Il rapporto, intitolato "An Action Plan to Increase the Safety and Security of Advanced AI", ha richiesto un anno di lavoro ed è stato finanziato con $250.000 di fondi federali.

Il rapporto si concentra sui rischi catastrofici dell'IA avanzata e propone un piano d'azione completo per mitigarli. Gli autori, ovviamente, non condividono la visione più permissiva di Yann LeCun sulle minacce dell'IA.

Il rapporto afferma che "l'ascesa dell'IA avanzata e dell'AGI [intelligenza artificiale generale] ha il potenziale per destabilizzare la sicurezza globale in modi che ricordano l'introduzione delle armi nucleari".

Le due principali categorie di rischio che solleva sono l'armamento intenzionale dell'IA e le conseguenze non intenzionali di un'IA che si comporta in modo scorretto.

Per evitare che ciò accada, il rapporto fornisce un piano d'azione composto da cinque linee di impegno (LOE) che il governo statunitense deve attuare.

Ecco la versione breve:

LOE1 - Istituire un osservatorio sull'IA per un migliore monitoraggio del panorama dell'IA. Istituire una task force per stabilire regole per lo sviluppo e l'adozione responsabile dell'IA. Usare le restrizioni della catena di fornitura per guidare la conformità degli operatori internazionali del settore dell'IA.

LOE2 - Aumentare la preparazione alla risposta agli incidenti di IA avanzata. Coordinare i gruppi di lavoro interagenzie, la formazione governativa sull'IA, il quadro di allerta precoce per rilevare le minacce emergenti dell'IA e i piani di emergenza basati su scenari.

LOE3 - I laboratori di IA sono più concentrati sullo sviluppo dell'IA che sulla sicurezza dell'IA. Il governo degli Stati Uniti deve finanziare la ricerca avanzata sulla sicurezza delle IA, anche per quanto riguarda l'allineamento scalabile delle IA.

Sviluppare standard di sicurezza e protezione per uno sviluppo e un'adozione responsabili dell'IA.

LOE4 - Istituire un'"agenzia di regolamentazione dell'IA con poteri normativi e di concessione di licenze".

Stabilire un quadro di responsabilità civile e penale per prevenire "conseguenze irrecuperabili su scala WMD", compresi "poteri di emergenza per consentire una risposta rapida a minacce in rapida evoluzione".

LOE5 - Stabilire un regime di salvaguardia dell'IA nel diritto internazionale e proteggere la catena di approvvigionamento. Promuovere il "consenso internazionale" sui rischi dell'IA con un trattato sull'IA applicato dall'ONU o da una "agenzia internazionale per l'IA".

In sintesi, l'IA potrebbe essere molto pericolosa, quindi abbiamo bisogno di molte leggi per controllarla.

Il rapporto afferma che i modelli avanzati open-source sono una cattiva idea e che il governo degli Stati Uniti dovrebbe prendere in considerazione la possibilità di rendere illegale il rilascio dei pesi dei modelli di IA, pena la reclusione.

Se questo vi sembra un po' allarmistico e pesante, non siete i soli. Il rapporto è stato criticato per la sua mancanza di rigore scientifico.

I sostenitori dell'open-source come William Falcon, CEO di Lightning AI, hanno criticato in particolare le dichiarazioni generiche sui pericoli dei modelli aperti.

La verità sui rischi che l'intelligenza artificiale avanzata comporta per l'umanità è probabilmente una via di mezzo tra "Moriremo tutti!" e "Non c'è da preoccuparsi".

Pagina 33 di un Indagine AI a cui fa riferimento il rapporto fornisce alcuni esempi interessanti di come i modelli di intelligenza artificiale giochino con il sistema e ingannino gli operatori per raggiungere l'obiettivo per il quale sono stati progettati.

Quando i modelli di intelligenza artificiale sfruttano già delle scappatoie per raggiungere un obiettivo, è difficile scartare la possibilità che i futuri modelli di intelligenza artificiale super intelligenti facciano lo stesso. E a quale costo?

È possibile leggere la sintesi del documento rapporto qui.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni