OpenAI consente al consiglio di amministrazione di "scavalcare" le decisioni di rilascio dei modelli da parte del CEO

18 dicembre 2023

Regolamento OpenAI

OpenAI ha recentemente rivelato che il suo consiglio di amministrazione ha l'autorità di scavalcare le decisioni prese dall'amministratore delegato in merito al rilascio di nuovi modelli di IA, anche se questi sono stati ritenuti sicuri dalla leadership dell'azienda. 

Queste informazioni sono state dettagliate in una serie di linee guida presentate lunedì, che delineano la strategia dell'azienda per affrontare i potenziali rischi estremi posti dai suoi sistemi di intelligenza artificiale più avanzati. 

Anche se il team dirigenziale può decidere inizialmente di rilasciare un nuovo sistema di intelligenza artificiale, il consiglio di amministrazione conserva il diritto di annullare tali decisioni.

Sam Altman, l'amministratore delegato di OpenAI, è stato licenziato dal suo incarico e drammaticamente reintegrato, evidenziando una curiosa dinamica di potere tra i direttori e i dirigenti dell'azienda. 

In seguito, molti hanno ipotizzato che Altman non avesse prestato la giusta attenzione alla sicurezza dei modelli, che fosse stato "travolto dal suo lavoro", per così dire. I rapporti successivi hanno messo in dubbio questa ipotesi, compreso il presidente di Microsoft Brad Smith, che ha dichiarato di ritenere improbabile che la sicurezza fosse il motivo principale. 

C'era anche la questione non secondaria che OpenAI aveva ricevuto un'enorme valutazione e i suoi dipendenti volevano incassare le loro stock option. 

Business Insider ha affermato che che i dipendenti di OpenAI hanno usato la loro lettera aperta in cui dichiaravano che avrebbero lasciato l'azienda se Altman non fosse stato reintegrato come merce di scambio. Un dipendente ha persino detto che era un cattivo amministratore delegato, anche se queste notizie non sono confermate. 

OpenAI ha ora agito per placare i timori di non prendere l'IA in modo sicuro, pubblicando innanzitutto i risultati del suo nuovo progetto "esperimento di "superallineamento e anche aumentando i "poteri" della loro squadra di "preparazione". 

OpenAI squadra di preparazione, guidato da Aleksander Madry, attualmente in congedo dal MIT, valuta continuamente i sistemi di intelligenza artificiale in varie categorie di rischio, tra cui la sicurezza informatica e le minacce legate ai settori chimico, nucleare e biologico. 

Questo team ha lo scopo di identificare e mitigare eventuali pericoli significativi associati alla tecnologia. Secondo le linee guida, i rischi classificati come "catastrofici" potrebbero causare danni economici sostanziali o gravi danni a molte persone.

Madry ha spiegato il processo, affermando: "L'intelligenza artificiale non è qualcosa che ci accade e che può essere buona o cattiva. È qualcosa che stiamo plasmando". Ha inoltre espresso la speranza che altre aziende adottino le linee guida di OpenAI per la valutazione dei rischi. 

Il suo team, costituito in ottobre come parte di tre gruppi separati che supervisionano la sicurezza dell'IA presso OpenAI, valuterà i modelli di IA non rilasciati e classificherà i rischi percepiti come "bassi", "medi", "alti" o "critici". Solo i modelli classificati come "medi" o "bassi" saranno presi in considerazione per il rilascio.

Parlando delle loro nuove politiche su X, OpenAI ha dichiarato: "Stiamo sistematizzando il nostro modo di pensare alla sicurezza con il nostro Preparedness Framework, un documento vivente (attualmente in beta) che dettaglia gli investimenti tecnici e operativi che stiamo adottando per guidare la sicurezza dello sviluppo dei nostri modelli di frontiera".

Oltre a queste misure, OpenAI ha un gruppo consultivo interno sulla sicurezza che esamina i risultati del team di Madry e fornisce raccomandazioni ad Altman e al consiglio di amministrazione. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni