Gli ex dipendenti di OpenAI pubblicano la lettera aperta "Right to Warn".

5 giugno 2024

  • In una lettera aperta attuali ed ex dipendenti di OpenAI e Google chiedono la libertà di segnalare i rischi dell'IA
  • La lettera è intitolata "Il diritto di mettere in guardia sull'intelligenza artificiale avanzata".
  • La lettera afferma che le aziende di IA sono disincentivate a segnalare i rischi, i dipendenti vengono puniti quando lo fanno.

Un gruppo di ex e attuali dipendenti di OpenAI e di Google sta chiamando in causa le aziende di IA per quella che, a loro dire, è una pericolosa cultura della segretezza che circonda i rischi dell'IA.

La lettera, intitolata "Il diritto di mettere in guardia sull'intelligenza artificiale avanzata", afferma che le aziende produttrici di IA hanno forti incentivi finanziari per evitare una sorveglianza efficace dei potenziali rischi dell'IA.

Oltre a essere imprudenti, concentrandosi sugli obiettivi finanziari invece che sulla sicurezza, la lettera afferma che le aziende utilizzano accordi di riservatezza punitivi per scoraggiare attivamente i dipendenti dal sollevare dubbi.

I firmatari sono tutti ex dipendenti di OpenAI e Google, con Neel Nanda, l'unico che lavora ancora in Google. La lettera è stata approvata anche da Yoshua Bengio, Geoffrey Hinton e Stuart Russell, menti di spicco dell'intelligenza artificiale.

A riprova della preoccupazione di chiamare in causa i loro ex datori di lavoro, 6 dei firmatari non hanno voluto rivelare i loro nomi nella lettera.

Gli ex ricercatori di OpenAI Daniel Kokotajlo e William Saunders, anch'essi firmatari della lettera, hanno lasciato l'azienda all'inizio dell'anno.

Kokotajlo faceva parte del team di governance e Saunders lavorava nel team Superalignment di OpenAI che è stato sciolto il mese scorso quando Anche Ilya Sutskever e Jan Leike hanno lasciato per problemi di sicurezza..

Kokotajlo ha spiegato il motivo del suo abbandono su un forum, dicendo che non crede che OpenAI "si comporterà in modo responsabile al momento dell'AGI".

Un invito all'azione

La lettera chiede un maggiore impegno da parte delle aziende di IA in assenza di una normativa che disciplini i rischi dell'IA di cui il pubblico non è a conoscenza.

Nella lettera si legge: "Le normali tutele per gli informatori sono insufficienti perché si concentrano sulle attività illegali, mentre molti dei rischi che ci preoccupano non sono ancora regolamentati".

La lettera chiede alle aziende di IA di impegnarsi a rispettare quattro principi. In breve, si chiede alle aziende di:

  • Non stipulare o applicare accordi che vietino di criticare l'azienda per questioni di sicurezza o di trattenere i benefici finanziari dovuti al dipendente. (ahem, OpenAI)
  • Facilitare un processo anonimo che consenta ai dipendenti di segnalare al consiglio di amministrazione dell'azienda o ad altre organizzazioni di regolamentazione le preoccupazioni relative ai rischi.
  • Sostenere una cultura di critica aperta che consenta ai dipendenti di rendere pubbliche le preoccupazioni relative ai rischi senza rivelare la proprietà intellettuale.
  • Non subire ritorsioni nei confronti di dipendenti ed ex dipendenti che condividono pubblicamente informazioni riservate sui rischi dopo che altre procedure sono fallite.

Molti dei nomi presenti nell'elenco dei firmatari si considerano altruisti effettivi. Dai loro post e commenti è chiaro che persone come Daniel Kokotajlo (Less Wrong) e William Saunders (AI Alignment Forum) credono che le cose potrebbero finire molto male se i rischi dell'IA non vengono gestiti.

Ma non si tratta di troll catastrofisti di un forum che si esprimono in disparte. Si tratta di intelletti di spicco che aziende come OpenAI e Google hanno ritenuto opportuno impiegare per creare la tecnologia che ora temono.

E ora dicono: "Abbiamo visto cose che ci spaventano. Vogliamo avvertire la gente, ma non ci è permesso".

È possibile leggere il lettera qui.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni