Sam Altman dice che l'agenzia internazionale dovrebbe monitorare i modelli di IA

13 maggio 2024

  • Sam Altman, CEO di OpenAI, sostiene che un'agenzia internazionale dovrebbe monitorare i modelli di IA più potenti
  • Altman sostiene che i futuri modelli di AI di frontiera potrebbero essere in grado di causare danni globali significativi
  • La legislazione potrebbe non essere abbastanza flessibile da tenere conto delle tecnologie AI in rapida evoluzione

OpenAI CEO, Sam Altman, afferma che dovrebbe essere istituita un'agenzia internazionale per monitorare i potenti modelli di IA di frontiera del futuro per garantire la sicurezza.

In un'intervista al podcast All-In, Altman ha affermato che presto vedremo modelli di AI di frontiera che saranno significativamente più potenti e potenzialmente più pericolosi.

Altman ha dichiarato: "Penso che in un futuro non molto lontano, come se non stessimo parlando di decenni e decenni da oggi, arriverà un momento in cui i sistemi di IA di frontiera saranno in grado di causare danni globali significativi".

Il US e UE Le autorità di tutto il mondo hanno approvato leggi per regolamentare l'intelligenza artificiale, ma Altman non crede che una legislazione inflessibile possa tenere il passo con la velocità con cui l'IA avanza. È anche critico nei confronti dei singoli US Stati che tentano di regolamentare l'IA in modo indipendente.

Parlando di sistemi avanzati di IA anticipati, Altman E per questo tipo di sistemi, allo stesso modo in cui abbiamo una supervisione globale delle armi nucleari o delle biotecnologie sintetiche o di cose che possono davvero avere un impatto negativo ben oltre la sfera di un solo Paese.

Mi piacerebbe vedere una sorta di agenzia internazionale che esamini i sistemi più potenti e garantisca test di sicurezza ragionevoli".

Altman ha affermato che questo tipo di supervisione internazionale sarebbe necessaria per evitare che un'IA superintelligente sia in grado di "fuggire e auto-migliorarsi ricorsivamente".

Altman ha riconosciuto che, sebbene sia necessaria una supervisione dei potenti modelli di IA, un'eccessiva regolamentazione dell'IA potrebbe soffocare il progresso.

L'approccio suggerito è simile a quello della regolamentazione nucleare internazionale. L'Agenzia Internazionale per l'Energia Atomica ha la supervisione degli Stati membri che hanno accesso a quantità significative di materiale nucleare.

"Se la linea che prevede di esaminare solo i modelli addestrati su computer che costano più di 10 miliardi o più di 100 miliardi o qualsiasi altra cifra, mi andrebbe bene. Ci sarebbe una linea che andrebbe bene. E non credo che questo comporti un onere normativo per le startup", ha spiegato.

Altman ha spiegato perché ritiene che l'approccio dell'agenzia sia migliore rispetto al tentativo di legiferare sull'IA.

"Il motivo per cui ho spinto per un approccio basato sulle agenzie per le cose più generali e non... scriverle nelle leggi,... tra 12 mesi sarà tutto sbagliato... E non credo che anche se queste persone fossero dei veri esperti del mondo, non credo che riuscirebbero a farlo bene". Se guardiamo a 12 o 24 mesi", ha detto.

Quando verrà rilasciato il GPT-5?

Alla domanda su una data di uscita del GPT-5, Altman è stato prevedibilmente poco disponibile, ma ha lasciato intendere che potrebbe non accadere nel modo in cui pensiamo.

"Ci prendiamo il nostro tempo quando rilasciamo i modelli principali... Inoltre, non so se lo chiameremo GPT-5", ha detto.

Altman ha indicato i miglioramenti iterativi OpenAI ha fatto sul GPT-4 e ha detto che questi indicano meglio come l'azienda realizzerà i miglioramenti futuri.

Sembra quindi che sia meno probabile che venga rilasciata una versione di "GPT-5" e più probabile che vengano aggiunte ulteriori funzionalità a GPT-4.

Dovremo aspettare OpenAIdi aggiornamenti nel corso della giornata per vedere se ci saranno ulteriori indizi su cosa ChatGPT cambiamenti che possiamo aspettarci di vedere.

Se volete ascoltare l'intervista completa potete ascoltalo qui.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni