Il consiglio di amministrazione di OpenAI forma un comitato per la sicurezza

29 maggio 2024

  • Il consiglio di amministrazione di OpenAI ha formato un comitato per la sicurezza e la protezione per sviluppare processi e salvaguardie.
  • La commissione consiglierà il Consiglio di amministrazione sulle decisioni critiche in materia di sicurezza e protezione.
  • OpenAI dichiara di aver iniziato a formare il suo modello di prossima frontiera con "capacità di livello superiore".

Il consiglio di amministrazione di OpenAI ha annunciato la formazione di un Comitato per la sicurezza che ha il compito di formulare raccomandazioni sulle decisioni critiche in materia di sicurezza per tutti i progetti OpenAI.

Il comitato è guidato dai direttori Bret Taylor (presidente), Adam D'Angelo, Nicole Seligman e Sam Altman, CEO di OpenAI.

Del comitato faranno parte anche Aleksander Madry (responsabile della preparazione), Lilian Weng (responsabile dei sistemi di sicurezza), John Schulman (responsabile della scienza dell'allineamento), Matt Knight (responsabile della sicurezza) e Jakub Pachocki (scienziato capo).

L'approccio di OpenAI alla sicurezza dell'IA ha dovuto affrontare critiche sia esterne che interne. Il licenziamento di Altman, avvenuto l'anno scorso, è stato sostenuto dall'allora membro del consiglio di amministrazione Ilya Sutskever e da altri, apparentemente per questioni di sicurezza.

La scorsa settimana Sutskever e Jan Leike del team "superalignment" di OpenAI ha lasciato l'azienda. Leike ha specificamente indicato i problemi di sicurezza come motivo del suo abbandono, affermando che l'azienda stava lasciando che la sicurezza "passasse in secondo piano rispetto ai prodotti luccicanti".

Ieri Leike ha annunciato il suo ingresso in Anthropic per occuparsi di supervisione e ricerca sull'allineamento.

Ora Altman non solo è tornato come amministratore delegato, ma fa anche parte del comitato responsabile di evidenziare i problemi di sicurezza. Gli approfondimenti dell'ex membro del consiglio di amministrazione Helen Toner sui motivi del licenziamento di Altman fanno pensare a quanto sarà trasparente nei confronti dei problemi di sicurezza scoperti dal comitato.

A quanto pare, il consiglio di amministrazione di OpenAI ha saputo del rilascio di ChatGPT tramite Twitter.

Il Comitato per la sicurezza utilizzerà i prossimi 90 giorni per valutare e sviluppare ulteriormente i processi e le salvaguardie di OpenAI.

Le raccomandazioni saranno sottoposte all'approvazione del consiglio di amministrazione di OpenAI e l'azienda si è impegnata a pubblicare le raccomandazioni di sicurezza adottate.

Questa spinta per ulteriori guardrail arriva mentre OpenAI dice di aver iniziato l'addestramento del suo modello di prossima frontiera che, a suo dire, "ci porterà al prossimo livello di capacità nel nostro percorso verso l'AGI".

Non è stata fornita una data di uscita prevista per il nuovo modello, ma la sola formazione richiederà probabilmente settimane, se non mesi.

In un aggiornamento sul suo approccio alla sicurezza pubblicato dopo l'AI Seoul Summit, OpenAI ha dichiarato: "Non rilasceremo un nuovo modello se supera la soglia di rischio "Medio" del nostro Preparedness Framework, finché non implementeremo interventi di sicurezza sufficienti a riportare il punteggio post-mitigazione a "Medio"".

Ha dichiarato che più di 70 esperti esterni sono stati coinvolti nel red teaming. GPT-4o prima del suo rilascio.

Con 90 giorni di tempo prima che la commissione presenti i suoi risultati al consiglio, una formazione iniziata solo di recente e l'impegno di un ampio red teaming, sembra che dovremo aspettare a lungo prima di avere finalmente il GPT-5.

Oppure intendono dire che hanno appena iniziato ad allenare la GPT-6?

 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni