Il Senato esamina la sicurezza e la governance di OpenAI dopo le denunce degli informatori

23 luglio 2024

  • I senatori statunitensi hanno interrogato OpenAI dopo le accuse di limitazioni al whistleblowing
  • Hanno inoltre messo in dubbio "l'integrità della struttura di governance dell'azienda".
  • OpenAI deve rispondere formalmente a una lista di domande entro il 13 agosto.
Senatori OpenAI

OpenAI si è trovata al centro di un'inchiesta del Senato a seguito di accuse di test di sicurezza affrettati.

Cinque senatori, guidati da Brian Schatz (D-Hawaii), hanno chiesto all'azienda di fornire informazioni dettagliate sulle sue pratiche di sicurezza e sugli accordi con i dipendenti.

L'inchiesta arriva sulla scia di un Rapporto del Washington Post suggerendo che OpenAI potrebbe aver compromesso i protocolli di sicurezza nella fretta di rilasciare il GPT-4 Omni, il suo ultimo modello di IA.

Nel frattempo, gli informatori, tra cui i ricercatori di alto profilo della OpenAI smantellata "squadra di superallineamento". hanno sollevato preoccupazioni in merito agli accordi restrittivi di non divulgazione (NDA) dei dipendenti.

Lettera dei senatori a OpenAI

In una lettera molto dura indirizzata all'amministratore delegato di OpenAI Sam Altman, cinque senatori hanno chiesto informazioni dettagliate sulle pratiche di sicurezza dell'azienda e sul trattamento dei dipendenti.

Il lettera solleva dubbi sull'impegno di OpenAI per uno sviluppo responsabile dell'IA e sulle sue politiche interne.

"Data la posizione di OpenAI come azienda leader nel settore dell'intelligenza artificiale, è importante che il pubblico possa fidarsi della sicurezza dei suoi sistemi", scrivono i senatori.

Le autorità hanno poi messo in dubbio "l'integrità della struttura di governance e dei test di sicurezza dell'azienda, le sue pratiche di impiego, la fedeltà alle sue promesse pubbliche e alla sua missione, e le sue politiche di cybersecurity".

I senatori, guidati da Brian Schatz (D-Hawaii), hanno fissato al 13 agosto la scadenza per la risposta di OpenAI a una serie di domande puntuali. Tra queste, se l'azienda rispetterà l'impegno di dedicare 20% di risorse di calcolo alla ricerca sulla sicurezza dell'IA e se permetterà a esperti indipendenti di testare i suoi sistemi prima del rilascio.

Per quanto riguarda gli accordi restrittivi con i dipendenti, la lettera chiede a OpenAI di confermare che "non applicherà accordi permanenti di non-disparazione per i dipendenti attuali ed ex" e di impegnarsi a "rimuovere qualsiasi altra disposizione dai contratti di lavoro che potrebbe essere utilizzata per penalizzare i dipendenti che sollevano pubblicamente preoccupazioni sulle pratiche aziendali".

In seguito OpenAI si è rivolto a X per rassicurare il pubblico sul suo impegno per la sicurezza.

"Affinché l'IA possa essere utile a tutti, è necessario costruire un'IA che sia utile e sicura. Vogliamo condividere alcuni aggiornamenti su come stiamo dando priorità alla sicurezza nel nostro lavoro", ha dichiarato l'azienda in un recente post.

OpenAI ha sottolineato il suo Preparedness Framework, progettato per valutare e proteggere dai rischi posti da modelli di IA sempre più potenti.

"Non rilasceremo un nuovo modello se supera la soglia di rischio 'medio' finché non saremo sicuri di poterlo fare in modo sicuro", ha assicurato l'azienda.

Per quanto riguarda le accuse di accordi restrittivi con i dipendenti, OpenAI ha dichiarato: "La nostra politica di denuncia protegge i diritti dei dipendenti a fare rivelazioni protette. Riteniamo inoltre che un dibattito rigoroso su questa tecnologia sia importante e abbiamo apportato modifiche al nostro processo di partenza per eliminare le clausole di non discriminazione".

L'azienda ha anche menzionato le recenti misure per rafforzare le sue misure di sicurezza.

A maggio, il Consiglio di Amministrazione di OpenAI ha lanciato un nuovo comitato per la sicurezza e la protezione, di cui fanno parte in pensione US Generale dell'esercito Paul Nakasone, uno dei maggiori esperti di cybersecurity.

OpenAI mantiene la sua posizione sui benefici dell'IA. "Crediamo che i modelli di IA di frontiera possano portare grandi benefici alla società", ha dichiarato l'azienda, pur riconoscendo la necessità di una continua vigilanza e di misure di sicurezza.

Nonostante alcuni progressi, le possibilità di approvare una legislazione completa sull'IA quest'anno sono basse, poiché l'attenzione si sposta verso le elezioni del 2024.

In assenza di nuove leggi da parte del Congresso, la Casa Bianca si è affidata in larga misura a impegni volontari dalle aziende di IA per garantire la creazione di sistemi di IA sicuri e affidabili.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni