L'industria dell'intelligenza artificiale dovrebbe imparare dalla sicurezza nucleare, sostengono gli esperti

6 giugno 2023
sicurezza nucleare

Lo sviluppo dell'IA è stato rapido, il che significa che la regolamentazione deve mettersi al passo e la governance è un po' un ripensamento.

Esistono pochi processi formali per garantire la sicurezza dell'IA e i ricercatori affermano che spetta all'industria cambiare questa situazione.

Molti leader e personalità del settore hanno paragonato l'IA all'energia nucleare. Le somiglianze sono molte - L'intelligenza artificiale sta crescendo rapidamente, rappresenta un rischio potenzialmente esistenziale ed è complicata dagli affari esteri, questa volta tra le emergenti superpotenze dell'intelligenza artificiale degli Stati Uniti e della Cina.

Ci sono voluti decenni prima che gli ingegneri nucleari convincessero la comunità scientifica in generale della sicurezza dei reattori nucleari. I primi reattori sono stati costruiti tra la fine degli anni '40 e l'inizio degli anni '50, e solo con l'Atomic Energy Act del 1954 è emerso un certo livello di regolamentazione. 

Il governo statunitense era consapevole dei rischi dell'energia nucleare, ma l'URSS mise in funzione il suo primo reattore civile a metà del 1954 e non perse tempo a costruirne uno proprio. Nel 1955, il commissario Willard F. Libby disse: "Il nostro grande rischio è che questo grande beneficio per l'umanità venga ucciso sul nascere da una regolamentazione non necessaria".

C'è qualcosa che vi suona familiare? Solo il mese scorso l'amministratore delegato di OpenAI Sam Altman sollecitato un organismo internazionale per la sicurezza dell'IA come l'Agenzia Internazionale per l'Energia Atomica (AIEA), fondata nel 1957. Proprio come l'energia nucleare, la gI governi di tutto il mondo stanno cercando di capire come preservare i benefici dell'IA, regolamentandone al contempo i rischi. 

L'AIEA era una componente autonoma dell'ONU e oggi conta 174 Stati membri. Dopo il 1957, i disastri nucleari sono stati relativamente pochi fino a Chernobyl.

L'intelligenza artificiale dovrebbe imparare dalla storia della sicurezza nucleare

Heidy Khlaaf, direttore tecnico presso la società di consulenza per la sicurezza informatica Sentiero dei bitutilizzato per valutare e verificare la sicurezza degli impianti nucleari. Recentemente ha dichiarato al MIT che le centrali nucleari richiedono migliaia di documenti che ne certificano la sicurezza, approfondendo le più piccole sfumature di ogni singolo componente. 

Dopo Chernobyl, la normativa nucleare è diventata estremamente severa. La pianificazione, l'autorizzazione e la costruzione di un reattore nucleare possono richiedere 10 anni o più, in parte perché il processo è rigorosamente monitorato in ogni sua fase. Khlaaf osserva che questo non ha nulla a che fare con i profitti: la sicurezza nucleare nasce da un vero e proprio rischio esistenziale. 

Al contrario, le aziende di IA riportano i loro modelli utilizzando semplici "schede" che elencano essenzialmente le funzioni. 

Inoltre, il funzionamento interno del modello è spesso una "scatola nera", il che significa che i processi decisionali sono in gran parte preclusi agli osservatori esterni. 

Anche ChatGPT, contrariamente all'omonimo OpenAI, è una scatola nera, e le aziende di IA si sono già fatte una reputazione di essere cauti sui loro modelli e sui dati di addestramento. 

Immaginate che i reattori nucleari siano una "scatola nera" e che i loro sviluppatori non dicano al pubblico come funzionano? 

L'analisi dei rischi dell'IA deve essere sistematica 

Per mitigare i rischi che i leader dell'IA, come Altman, ammettono prontamente, le aziende devono andare più a fondo nelle loro strategie di tracciabilità. Ciò comporta un monitoraggio rigoroso fin dall'inizio del processo di sviluppo dell'IA. 

Khlaaf afferma: "È necessario avere un modo sistematico per esaminare i rischi. Non si tratta di uno scenario in cui si dice semplicemente: 'Oh, potrebbe succedere. Lo scrivo e basta'". 

Attualmente non esiste un processo consolidato per la valutazione del rischio dell'IA, ma ci sono stati alcuni tentativi di crearne uno. 

Per esempio, DeepMind ha recentemente pubblicato un blog tecnico in collaborazione con diverse università, specificando che i modelli devono essere valutati per "rischi estremi" prima della formazione. Il documento propone due strategie:

  1. Valutare l'entità delle "capacità pericolose" di un modello che potrebbero essere utilizzate per minacciare la sicurezza, esercitare influenza o eludere la supervisione umana.
  2. Valutare l'entità della possibilità di un modello di causare danni, ad esempio se rischia di non comportarsi come previsto. 

Toby Shevlane, uno dei ricercatori del progetto, ha dichiarato: "Le aziende leader nel settore dell'IA che stanno spingendo in avanti la frontiera hanno la responsabilità di essere attenti ai problemi emergenti e di individuarli per tempo, in modo da poterli affrontare il prima possibile."

Se l'IA deve imparare dalla sicurezza nucleare, la regolamentazione precoce è fondamentale, ma la compiacenza a lungo termine è letale. Nessuno sa come sarebbe una versione AI di Chernobyl o Fukushima, e nessuno vuole scoprirlo.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×
 
 

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI


 

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".



 
 

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni