Ilya Sutskever, cofondatore ed ex scienziato capo di OpenAI, ha annunciato il lancio della sua nuova impresa, Safe Superintelligence Inc. (SSI).
Insieme ai cofondatori Daniel Gross di Y Combinator e l'ex ingegnere di OpenAI Daniel Levy, Sutskever si propone di affrontare quello che ritiene il problema più critico nel campo dell'IA: sviluppare un sistema di IA superintelligente sicuro e potente.
Sutskever ritiene che la superintelligenza dell'IA, un termine vago che indica un'IA che eguaglia o supera l'intelligenza umana, sarà possibile entro dieci anni.
Il dichiarazione dell'azienda, pubblicato da Sutskever su X, dichiara: "La superintelligenza è a portata di mano. Costruire una superintelligenza sicura (SSI) è il problema tecnico più importante del nostro tempo. Abbiamo avviato il primo laboratorio SSI al mondo, con un solo obiettivo e un solo prodotto: una superintelligenza sicura".
Sto avviando una nuova azienda: https://t.co/BG3K3SI3A1
- Ilya Sutskever (@ilyasut) 19 giugno 2024
I fondatori descrivono SSI non solo come la loro missione, ma anche come il loro nome e l'intera roadmap dei prodotti.
"SSI è la nostra missione, il nostro nome e la nostra intera roadmap di prodotti, perché è il nostro unico obiettivo. Il nostro team, i nostri investitori e il nostro modello aziendale sono tutti allineati per raggiungere SSI", si legge nella dichiarazione.
Un'antitesi a OpenAI?
Sebbene Sutskever e l'amministratore delegato di OpenAI Sam Altman abbiano espresso pubblicamente il loro rispetto reciproco, gli eventi recenti suggeriscono tensioni di fondo.
Sutskever è stato determinante per la tentativo di estromettere Altmanche in seguito ha dichiarato di rimpiangere. Sutskever si è formalmente dimesso a maggio, dopo aver mantenuto un basso profilo pubblico che ha lasciato i curiosi a chiedersi dove si trovasse.
Dopo quasi un decennio, ho preso la decisione di lasciare OpenAI. La traiettoria dell'azienda è stata a dir poco miracolosa, e sono fiducioso che OpenAI costruirà un'AGI sicura e vantaggiosa sotto la guida di @sama, @gdb, @miramurati e ora, sotto il...
- Ilya Sutskever (@ilyasut) 14 maggio 2024
Questo incidente e l'abbandono di altri ricercatori chiave per problemi di sicurezza presso OpenAI sollevano interrogativi sulle priorità e sulla direzione dell'azienda.
Il "team di superallineamento" di OpenAI, incaricato di allineare l'IA ai valori e ai benefici dell'uomo, era praticamente smantellato dopo che Sutskever e il collega ricercatore Jan Leike hanno lasciato l'azienda quest'anno.
La decisione di Sutskever di lasciare sembra derivare dal suo desiderio di perseguire un progetto che si allinei maggiormente alla sua visione del futuro dello sviluppo dell'IA - una visione in cui OpenAI sembra fallire, in quanto si sta allontanando dal suo obiettivo. principi fondanti.
Intelligenza Artificiale orientata alla sicurezza
I rischi legati all'IA sono molto dibattuti.
Sebbene l'umanità abbia un impulso primordiale a temere i sistemi artificiali più intelligenti di noi - un sentimento assolutamente giusto - non tutti i ricercatori di IA pensano che questo sia possibile nel prossimo futuro.
Tuttavia, un punto chiave è che trascurare i rischi ora potrebbe essere devastante in futuro.
SSI intende affrontare la sicurezza contemporaneamente allo sviluppo dell'intelligenza artificiale: "Affrontiamo la sicurezza e le capacità in tandem, come problemi tecnici da risolvere attraverso rivoluzionarie scoperte ingegneristiche e scientifiche. Intendiamo far progredire le capacità il più rapidamente possibile, assicurandoci che la nostra sicurezza rimanga sempre all'avanguardia", spiegano i fondatori.
Perseguiremo la superintelligenza sicura in modo diretto, con un solo obiettivo, un solo scopo e un solo prodotto. Lo faremo attraverso scoperte rivoluzionarie prodotte da un piccolo team di esperti. Unitevi a noi: https://t.co/oYL0EcVED2
- Ilya Sutskever (@ilyasut) 19 giugno 2024
Questo approccio consente a SSI di "scalare in pace", senza le distrazioni delle spese generali di gestione, dei cicli di produzione e delle pressioni commerciali a breve termine.
"Il nostro unico obiettivo significa che non ci sono distrazioni dovute a spese generali di gestione o a cicli di prodotto, e il nostro modello di business significa che la sicurezza, la protezione e il progresso sono tutti isolati da pressioni commerciali a breve termine", sottolinea la dichiarazione.
Assemblare un team da sogno
Per raggiungere i propri obiettivi, SSI sta mettendo insieme un "team snello e compresso, composto dai migliori ingegneri e ricercatori del mondo, che si concentra su SSI e nient'altro".
"Siamo un'azienda americana con uffici a Palo Alto e Tel Aviv, dove abbiamo radici profonde e la capacità di reclutare i migliori talenti tecnici", si legge nel comunicato.
"Se siete voi, vi offriamo l'opportunità di fare il lavoro della vostra vita e di contribuire a risolvere la sfida tecnica più importante della nostra epoca".
Con SSI, un altro giocatore si aggiunge al campo in continua espansione dell'IA.
Sarà molto interessante vedere chi si unirà a SSI, e in particolare se ci sarà un forte movimento di talenti da OpenAI.