OpenAI stringe un accordo di sicurezza con il governo statunitense e punta a una valutazione di $100 miliardi di dollari

30 agosto 2024

  • OpenAI permette ai funzionari di sicurezza statunitensi di accedere ai suoi modelli.
  • La collaborazione coinvolge l'Istituto statunitense per la sicurezza dell'intelligenza artificiale e il NIST.
  • Permette di testare in anticipo i modelli futuri di OpenAI.
OpenAI US gov

OpenAI ha firmato un accordo unico nel suo genere con il governo degli Stati Uniti per collaborare alla ricerca e alla valutazione della sicurezza dell'IA. 

Giovedì, gli Stati Uniti Istituto per la sicurezza dell'intelligenza artificiale, parte del National Institute of Standards and Technology (NIST), ha annunciato di aver raggiunto accordi sia con OpenAI che con il suo rivale Anthropic. 

L'accordo arriva mentre l'azienda sarebbe in trattative per raccogliere fondi a una valutazione sbalorditiva di $100 miliardi, a dimostrazione di come, nonostante un periodo di rallentamento dei progressi, OpenAI sia ancora molto proiettata verso il futuro. 

Le partnership daranno al governo l'accesso interno ai principali nuovi modelli di intelligenza artificiale prima e dopo il loro rilascio pubblico, anche se è difficile capire a cosa corrisponda esattamente.

È giusto dire che nemmeno gli stessi sviluppatori di IA capiscono veramente come funzionano i loro modelli, quindi i vantaggi per il NIST potrebbero essere limitati. Ciononostante, si tratta di un tentativo di approfondire la sorveglianza governativa sui modelli segreti di IA di frontiera. 

"Un'intelligenza artificiale sicura e affidabile è fondamentale per l'impatto positivo della tecnologia", ha dichiarato Jason Kwon, chief strategy officer di OpenAI. "Riteniamo che l'Istituto abbia un ruolo fondamentale nel definire la leadership degli Stati Uniti nello sviluppo responsabile dell'intelligenza artificiale".

Elizabeth Kelly, direttrice dell'Istituto statunitense per la sicurezza dell'IA, ha definito l'accordo "un'importante pietra miliare per contribuire a gestire responsabilmente il futuro dell'IA".

In base all'accordo, l'istituto fornirà un feedback a OpenAI sui potenziali miglioramenti alla sicurezza dei suoi modelli, lavorando in stretta collaborazione con l'Istituto britannico per la sicurezza dell'intelligenza artificiale, che ha anche accesso richiesto al funzionamento interno dei modelli di intelligenza artificiale. 

Gli accordi sono arrivati da tempo nell'ambito degli sforzi dell'amministrazione Biden per regolamentare l'IA. ADopo l'intervento di Biden ordine esecutivofirmato nell'ottobre 2023, la governance dell'IA negli Stati Uniti si è lentamente avviata, anche se alcuni sostengono che i progressi hanno lasciato molto a desiderare. 

La tempistica dell'accordo è degna di nota per due motivi. In primo luogo, arriva mentre OpenAI starebbe discutendo di raccogliere un nuovo round di finanziamento che valuterebbe l'azienda oltre $100 miliardi. 

Questa cifra astronomica rappresenta un aumento di oltre tre volte rispetto alla valutazione di $29 miliardi dello scorso anno.

Secondo fonti che hanno familiarità con la questione, la società di venture capital Thrive Capital è destinata a guidare il round con un investimento di $1 miliardo. Anche il gigante tecnologico Microsoft, già principale finanziatore di OpenAI, starebbe partecipando al finanziamento.

In secondo luogo, OpenAI sarebbe in procinto di rilasciare un nuovo prodotto, GPT -5, RicercaGPTo qualche altra iterazione che preveda un nome in codice "Progetto Fragola." 

Il progetto Strawberry, inizialmente chiamato Q*, combina presumibilmente un modello di intelligenza artificiale con un agente autonomo in grado di navigare in Internet. 

È importante notare che OpenAI avrebbe dimostrato Strawberry ai funzionari della sicurezza degli Stati Uniti, il che potrebbe aver fatto parte di questo nuovo accordo con l'AI Safety Institute e il NIST.

OpenAI è stato piuttosto tranquillo, tutto sommato. Il GPT-4o è stato presentato come un grande progresso, ma il suo fiore all'occhiello - la funzione di chat vocale - non ha ancora visto una diffusione di massa. OpenAI ha addotto come motivo del ritardo la sicurezza e gli ostacoli normativi. 

Che sia OpenAI a stringere questa nuova partnership per evitare simili intoppi in futuro?

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni