Il crollo del superallineamento di OpenAI: si può recuperare la fiducia?

18 maggio 2024

  • OpenAI suscita polemiche per il crollo dei suoi team di sicurezza superallineati
  • Questo include la partenza di Jan Leike e Ilya Sutskever.
  • L'amministratore delegato Sam Altman potrebbe faticare a controllare la fiducia e il morale dell'azienda
Notizie sull'intelligenza artificiale

Ilya Sutskever e Jan Leike da OpenAIIl team di "superallineamento" dell'azienda si è dimesso questa settimana, gettando un'ombra sull'impegno dell'azienda per uno sviluppo responsabile dell'IA sotto la guida del CEO Sam Altman.

Leike, in particolare, non ha usato mezzi termini. "Negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti luccicanti", ha dichiarato in una battuta di saluto, confermando il disagio di coloro che osservano OpenAIdi ricerca dell'intelligenza artificiale avanzata.

Sutskever e Leike sono l'ultima voce di una lista sempre più lunga di cambiamenti di alto profilo all'interno dell'azienda. OpenAI.

Dal novembre 2023, quando Altman è sopravvissuto per un soffio a un tentativo di colpo di stato in seno al consiglio di amministrazione, mentre almeno altri cinque membri chiave del team di superallineamento si sono dimessi o sono stati costretti ad andarsene:

  • Daniel Kokotajlo, che si è unito a OpenAI nel 2022, con la speranza di guidare l'azienda verso uno sviluppo responsabile dell'intelligenza artificiale generale (AGI) - un'intelligenza artificiale altamente capace di soddisfare o superare la nostra stessa cognizione - si è dimesso nell'aprile del 2024 dopo aver perso fiducia nella capacità della dirigenza di "gestire responsabilmente l'AGI".
  • Leopold Aschenbrenner e Pavel Izmailov, membri del team di superallineamento, sono stati presumibilmente licenziati il mese scorso per aver "fatto trapelare" informazioni, anche se OpenAI non ha fornito alcuna prova di illeciti. Gli addetti ai lavori ipotizzano che siano stati presi di mira perché alleati di Sutskever.
  • Cullen O'Keefe, un altro ricercatore sulla sicurezza, ha lasciato l'incarico in aprile.
  • William Saunders si è dimesso a febbraio ma, a quanto pare, è vincolato da un accordo di non divulgazione per non parlare delle sue ragioni. 

Amid these developments, OpenAI ha presumibilmente minacciato di eliminare i diritti azionari dei dipendenti se questi ultimi criticano l'azienda o Altman stesso, secondo Vox

Questo ha reso difficile comprendere veramente il problema. OpenAI, but I dati suggeriscono che le iniziative di sicurezza e allineamento stanno fallendo, se mai sono state sincere in primo luogo.

OpenAILa trama controversa del film si infittisce

OpenAI, fondata nel 2015 da Elon Musk e Sam Altmanera fortemente impegnato nella ricerca open-source e nello sviluppo responsabile dell'intelligenza artificiale.

Tuttavia, negli ultimi anni la visione dell'azienda si è ampliata e si è ritirata a porte chiuse. Nel 2019, OpenAI è passato ufficialmente da un laboratorio di ricerca senza scopo di lucro a un'entità "a scopo di lucro limitato".alimentando i timori di uno spostamento verso la commercializzazione a scapito della trasparenza.

Da allora, OpenAI ha protetto le sue ricerche e i suoi modelli con accordi di non divulgazione e con la minaccia di azioni legali contro i dipendenti che osano parlarne. 

Tra le altre controversie principali nella breve storia della startup vi sono:

  • Nel 2019, OpenAI ha stupito la comunità dell'intelligenza artificiale passando da un laboratorio di ricerca senza scopo di lucro a un'azienda "a scopo di lucro limitato", segnando un allontanamento dai suoi principi fondatori. 
  • L'anno scorso sono emerse notizie di incontri a porte chiuse fra OpenAI e organizzazioni militari e di difesa.
  • AltmanI suoi tweet incostanti hanno sollevato qualche perplessità, dalle riflessioni sulla governance globale alimentata dall'intelligenza artificiale all'ammissione di un rischio esistenziale in un modo che lo ritrae come il pilota di una nave che già non è in grado di governare.
  • Il colpo più grave per AltmanSutskever stesso ha fatto parte di un gruppo di persone che fallito colpo di stato in sala riunioni nel novembre 2023 che mirava a estromettere l'amministratore delegato. Altman è riuscito ad aggrapparsi al potere, dimostrando di essere ben legato all'azienda in un modo così difficile da scardinare, anche da parte del consiglio di amministrazione stesso. 

Anche se i drammi dei consigli di amministrazione e le crisi di fondazione non sono rari nella Silicon Valley, OpenAIIl lavoro dell'autore, per sua stessa ammissione, potrebbe essere fondamentale per la società globale.

Il pubblico, le autorità di regolamentazione e i governi vogliono una governance coerente e priva di controversie. OpenAIma la breve e turbolenta storia della startup suggerisce tutt'altro.

OpenAI sta diventando l'antieroe dell'intelligenza artificiale generativa

Mentre la diagnosi da poltrona e l'assassinio del personaggio di Altman sono irresponsabili, la sua storia di manipolazione e il perseguimento di visioni personali a sacrificio dei collaboratori e della fiducia del pubblico sollevano domande scomode.

Di conseguenza, le conversazioni relative a Altman e la sua azienda sono diventati sempre più pericolosi su X, Reddit e il forum di Y Combinator.

Sebbene i capi del settore tecnologico siano spesso polarizzanti, di solito conquistano un seguito, come dimostra Elon Musk tra i tipi più provocatori. Altri, come Microsoft CEO Satya Nadella, si fanno rispettare per la loro strategia aziendale e per il loro stile di leadership controllato e maturo.

Riconosciamo inoltre come altre startup di AI, come Anthropicriescono a mantenere un profilo piuttosto basso nonostante gli alti risultati ottenuti nel settore dell'intelligenza artificiale generativa. OpenAImantiene invece una gravitas intensa e controversa che la tiene sotto gli occhi di tutti, senza che la sua immagine, né quella dell'IA generativa nel suo complesso, ne tragga alcun beneficio. 

Alla fine, dovremmo dire le cose come stanno. OpenAIIl modello di segretezza dell'azienda ha contribuito a creare la sensazione che non sia più un attore in buona fede nell'IA.

IL'opinione pubblica si chiede se l'IA generativa possa erodere la società piuttosto che aiutarla. Manda il messaggio che il perseguimento dell'IA è un affare a porte chiuse, un gioco giocato dalle élite tecnologiche con scarsa considerazione per le implicazioni più ampie.

La licenza morale dell'industria tecnologica

La licenza morale affligge da tempo l'industria tecnologica, dove la nobiltà della missione aziendale proposta viene usata per giustificare i compromessi etici. 

Dal mantra di Facebook "muoviti velocemente e rompi le cose" allo slogan di Google "non essere malvagio", i giganti tecnologici hanno ripetutamente invocato il linguaggio del progresso e del bene sociale pur impegnandosi in pratiche discutibili.

OpenAILa missione di ricerca e sviluppo dell'Intelligenza Artificiale "a beneficio di tutta l'umanità" invita forse a una forma estrema di licenza morale.

La promessa di una tecnologia che potrebbe risolvere le più grandi sfide del mondo e inaugurare un'era di prosperità senza precedenti è molto seducente. Fa appello alle nostre speranze e ai nostri sogni più profondi, attingendo al desiderio di lasciare un impatto positivo e duraturo sul mondo.

Ma proprio qui sta il pericolo. Quando la posta in gioco è così alta e le potenziali ricompense così grandi, diventa fin troppo facile giustificare i tagli, i limiti etici e il rifiuto della critica in nome di un "bene superiore" che nessun individuo o piccolo gruppo può definire, nemmeno con tutti i finanziamenti e le ricerche del mondo.

Questa è la trappola che OpenAI rischia di cadere. Ponendosi come creatore di una tecnologia che andrà a beneficio di tutta l'umanità, l'azienda si è sostanzialmente concessa un assegno in bianco per perseguire la sua visione con ogni mezzo necessario.

Allora, cosa possiamo fare? Beh, parlare non costa nulla. Sono fondamentali una governance solida, un dialogo continuo e progressivo e una pressione costante per migliorare le pratiche del settore. 

Per quanto riguarda OpenAI stesso, come la pressione del pubblico e la critica dei media nei confronti di OpenAI crescere, AltmanLa posizione dell'azienda potrebbe diventare meno sostenibile. 

Se dovesse andarsene o essere estromesso, dovremmo sperare che qualcosa di positivo riempia l'immenso vuoto che si lascerebbe alle spalle. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni