OpenAI CEO, Sam Altman, afferma che dovrebbe essere istituita un'agenzia internazionale per monitorare i potenti modelli di IA di frontiera del futuro per garantire la sicurezza.
In un'intervista al podcast All-In, Altman ha affermato che presto vedremo modelli di AI di frontiera che saranno significativamente più potenti e potenzialmente più pericolosi.
Altman ha dichiarato: "Penso che in un futuro non molto lontano, come se non stessimo parlando di decenni e decenni da oggi, arriverà un momento in cui i sistemi di IA di frontiera saranno in grado di causare danni globali significativi".
Il US e UE Le autorità di tutto il mondo hanno approvato leggi per regolamentare l'intelligenza artificiale, ma Altman non crede che una legislazione inflessibile possa tenere il passo con la velocità con cui l'IA avanza. È anche critico nei confronti dei singoli US Stati che tentano di regolamentare l'IA in modo indipendente.
Parlando di sistemi avanzati di IA anticipati, Altman E per questo tipo di sistemi, allo stesso modo in cui abbiamo una supervisione globale delle armi nucleari o delle biotecnologie sintetiche o di cose che possono davvero avere un impatto negativo ben oltre la sfera di un solo Paese.
Mi piacerebbe vedere una sorta di agenzia internazionale che esamini i sistemi più potenti e garantisca test di sicurezza ragionevoli".
Altman ha affermato che questo tipo di supervisione internazionale sarebbe necessaria per evitare che un'IA superintelligente sia in grado di "fuggire e auto-migliorarsi ricorsivamente".
Altman ha riconosciuto che, sebbene sia necessaria una supervisione dei potenti modelli di IA, un'eccessiva regolamentazione dell'IA potrebbe soffocare il progresso.
L'approccio suggerito è simile a quello della regolamentazione nucleare internazionale. L'Agenzia Internazionale per l'Energia Atomica ha la supervisione degli Stati membri che hanno accesso a quantità significative di materiale nucleare.
"Se la linea che prevede di esaminare solo i modelli addestrati su computer che costano più di 10 miliardi o più di 100 miliardi o qualsiasi altra cifra, mi andrebbe bene. Ci sarebbe una linea che andrebbe bene. E non credo che questo comporti un onere normativo per le startup", ha spiegato.
Altman ha spiegato perché ritiene che l'approccio dell'agenzia sia migliore rispetto al tentativo di legiferare sull'IA.
"Il motivo per cui ho spinto per un approccio basato sulle agenzie per le cose più generali e non... scriverle nelle leggi,... tra 12 mesi sarà tutto sbagliato... E non credo che anche se queste persone fossero dei veri esperti del mondo, non credo che riuscirebbero a farlo bene". Se guardiamo a 12 o 24 mesi", ha detto.
Quando verrà rilasciato il GPT-5?
Alla domanda su una data di uscita del GPT-5, Altman è stato prevedibilmente poco disponibile, ma ha lasciato intendere che potrebbe non accadere nel modo in cui pensiamo.
"Ci prendiamo il nostro tempo quando rilasciamo i modelli principali... Inoltre, non so se lo chiameremo GPT-5", ha detto.
Altman ha indicato i miglioramenti iterativi OpenAI ha fatto sul GPT-4 e ha detto che questi indicano meglio come l'azienda realizzerà i miglioramenti futuri.
Sembra quindi che sia meno probabile che venga rilasciata una versione di "GPT-5" e più probabile che vengano aggiunte ulteriori funzionalità a GPT-4.
Dovremo aspettare OpenAIdi aggiornamenti nel corso della giornata per vedere se ci saranno ulteriori indizi su cosa ChatGPT cambiamenti che possiamo aspettarci di vedere.
Se volete ascoltare l'intervista completa potete ascoltalo qui.