OpenAI ha firmato un accordo unico nel suo genere con il governo degli Stati Uniti per collaborare alla ricerca e alla valutazione della sicurezza dell'IA.
Giovedì, gli Stati Uniti Istituto per la sicurezza dell'intelligenza artificiale, parte del National Institute of Standards and Technology (NIST), ha annunciato di aver raggiunto accordi sia con OpenAI che con il suo rivale Anthropic.
L'accordo arriva mentre l'azienda sarebbe in trattative per raccogliere fondi a una valutazione sbalorditiva di $100 miliardi, a dimostrazione di come, nonostante un periodo di rallentamento dei progressi, OpenAI sia ancora molto proiettata verso il futuro.
Le partnership daranno al governo l'accesso interno ai principali nuovi modelli di intelligenza artificiale prima e dopo il loro rilascio pubblico, anche se è difficile capire a cosa corrisponda esattamente.
È giusto dire che nemmeno gli stessi sviluppatori di IA capiscono veramente come funzionano i loro modelli, quindi i vantaggi per il NIST potrebbero essere limitati. Ciononostante, si tratta di un tentativo di approfondire la sorveglianza governativa sui modelli segreti di IA di frontiera.
siamo lieti di aver raggiunto un accordo con la US AI Safety Institute per i test di pre-release dei nostri modelli futuri.
Per molte ragioni, riteniamo importante che ciò avvenga a livello nazionale. US deve continuare a guidare!
- Sam Altman (@sama) 29 agosto 2024
"Un'intelligenza artificiale sicura e affidabile è fondamentale per l'impatto positivo della tecnologia", ha dichiarato Jason Kwon, chief strategy officer di OpenAI. "Riteniamo che l'Istituto abbia un ruolo fondamentale nel definire la leadership degli Stati Uniti nello sviluppo responsabile dell'intelligenza artificiale".
Elizabeth Kelly, direttrice dell'Istituto statunitense per la sicurezza dell'IA, ha definito l'accordo "un'importante pietra miliare per contribuire a gestire responsabilmente il futuro dell'IA".
In base all'accordo, l'istituto fornirà un feedback a OpenAI sui potenziali miglioramenti alla sicurezza dei suoi modelli, lavorando in stretta collaborazione con l'Istituto britannico per la sicurezza dell'intelligenza artificiale, che ha anche accesso richiesto al funzionamento interno dei modelli di intelligenza artificiale.
Gli accordi sono arrivati da tempo nell'ambito degli sforzi dell'amministrazione Biden per regolamentare l'IA. ADopo l'intervento di Biden ordine esecutivofirmato nell'ottobre 2023, la governance dell'IA negli Stati Uniti si è lentamente avviata, anche se alcuni sostengono che i progressi hanno lasciato molto a desiderare.
La tempistica dell'accordo è degna di nota per due motivi. In primo luogo, arriva mentre OpenAI starebbe discutendo di raccogliere un nuovo round di finanziamento che valuterebbe l'azienda oltre $100 miliardi.
Questa cifra astronomica rappresenta un aumento di oltre tre volte rispetto alla valutazione di $29 miliardi dello scorso anno.
Secondo fonti che hanno familiarità con la questione, la società di venture capital Thrive Capital è destinata a guidare il round con un investimento di $1 miliardo. Anche il gigante tecnologico Microsoft, già principale finanziatore di OpenAI, starebbe partecipando al finanziamento.
In secondo luogo, OpenAI sarebbe in procinto di rilasciare un nuovo prodotto, GPT -5, RicercaGPTo qualche altra iterazione che preveda un nome in codice "Progetto Fragola."
Il progetto Strawberry, inizialmente chiamato Q*, combina presumibilmente un modello di intelligenza artificiale con un agente autonomo in grado di navigare in Internet.
È importante notare che OpenAI avrebbe dimostrato Strawberry ai funzionari della sicurezza degli Stati Uniti, il che potrebbe aver fatto parte di questo nuovo accordo con l'AI Safety Institute e il NIST.
OpenAI è stato piuttosto tranquillo, tutto sommato. Il GPT-4o è stato presentato come un grande progresso, ma il suo fiore all'occhiello - la funzione di chat vocale - non ha ancora visto una diffusione di massa. OpenAI ha addotto come motivo del ritardo la sicurezza e gli ostacoli normativi.
Che sia OpenAI a stringere questa nuova partnership per evitare simili intoppi in futuro?