Demis Hassabis, CEO di Google DeepMind, ha sostenuto che i rischi dell'IA devono essere presi sul serio come la crisi climatica e la risposta deve essere immediata.
Parlando in vista dell'AI Safety Summit del Regno Unito, che si terrà l'1 e il 2 novembre, Hassabis ha affermato che il mondo non dovrebbe ritardare la sua risposta alle sfide poste dall'IA.
"Dobbiamo prendere i rischi dell'IA con la stessa serietà di altre grandi sfide globali, come il cambiamento climatico", ha dichiarato Hassabis.
"La comunità internazionale ha impiegato troppo tempo per coordinare una risposta globale efficace a questo problema, e ora ne stiamo vivendo le conseguenze. Non possiamo permetterci lo stesso ritardo con l'IA".
Hassabis si riferisce al Gruppo intergovernativo sui cambiamenti climatici (IPCC).
Lui e altri hanno chiesto l'istituzione di un comitato di regolamentazione internazionale indipendente per l'IA, simile all'IPCC o all'Agenzia Internazionale per l'Energia Atomica (AIEA). fondata nel 1957.
Nel 1955, il commissario Willard F. Libby parlò dell'energia nucleare: "Il nostro grande rischio è che questo grande beneficio per l'umanità venga ucciso sul nascere da una regolamentazione non necessaria".
Dopo l'istituzione dell'AIEA, i disastri nucleari sono stati relativamente pochi fino a Chernobyl. Non sappiamo ancora come potrebbe essere un "disastro dell'IA".
Bilanciare i benefici e i rischi dell'IA
Pur riconoscendo il potenziale di trasformazione dell'IA in campi come la medicina e la scienza, Hassabis ha anche sottolineato le minacce esistenziali poste dalla tecnologia, in particolare lo sviluppo di sistemi superintelligenti - o intelligenza artificiale generale (AGI).
"Penso che si debba partire da qualcosa come l'IPCC, che è un accordo scientifico e di ricerca con rapporti, e poi costruire da lì", ha consigliato Hassabis.
"Mi piacerebbe che alla fine ci fosse un equivalente del Cern per la sicurezza dell'intelligenza artificiale, che faccia ricerca in questo campo, ma a livello internazionale. E poi forse un giorno ci sarà una sorta di equivalente dell'AIEA, che controlla effettivamente queste cose".
DeepMind ha pubblicato numerosi lavori sulla sicurezza dell'IA, tra cui un blog tecnico in collaborazione con diverse università, che specifica che i modelli devono essere valutati per "rischi estremi" prima di effettuare qualsiasi formazione.
DeepMind ha anche dimostrato sperimentalmente che l'IA è in cerca di nuovi obiettivi emergenti che si discostano in modo imprevedibile dalle intenzioni dei suoi sviluppatori - o "canaglia".
Hassabis e i rappresentanti di altre importanti aziende di IA come OpenAI parteciperanno all'AI Safety Summit di novembre. Il governo del Regno Unito ha reso noto il calendario per il primo giorno dell'evento.