Anthropic, Google, Microsoft e OpenAI hanno lanciato il Frontier Model Forum a luglio e ora hanno stanziato $10m per un AI Safety Fund a sostegno dell'iniziativa.
Il Frontier Model Forum è stato avviato con l'obiettivo di definire gli standard di sicurezza dell'IA e valutare i modelli di frontiera per garantire uno sviluppo responsabile. Sembra che il gruppo stia finalmente entrando nel vivo della sua attività, dato che annunciato Chris Meserole come primo direttore esecutivo
Meserole ha solide credenziali nel campo dell'intelligenza artificiale, avendo recentemente ricoperto il ruolo di direttore dell'Iniziativa sull'intelligenza artificiale e le tecnologie emergenti presso la Brookings Institution.
In una dichiarazione relativa alla sua nuova nomina, Meserols ha affermato: "I modelli di IA più potenti sono estremamente promettenti per la società, ma per realizzare il loro potenziale dobbiamo capire meglio come svilupparli e valutarli in modo sicuro". Sono entusiasta di affrontare questa sfida con il Frontier Model Forum".
La missione del forum è di:
- Promuovere la ricerca sulla sicurezza dell'IA per promuovere uno sviluppo responsabile dei modelli di frontiera e minimizzare i rischi potenziali.
- Identificare le migliori pratiche di sicurezza per i modelli di frontiera
- Condividere le conoscenze con i responsabili politici, gli accademici, la società civile e altri soggetti per far progredire lo sviluppo responsabile dell'IA.
- Sostenere gli sforzi per sfruttare l'IA per affrontare le sfide più importanti della società.
Per finanziare l'iniziativa è stato istituito l'AI Safety Fund, con un importo iniziale di $10m proveniente da Anthropic, Google, Microsoft e OpenAI, oltre che da altri filantropi.
Oggi lanciamo un nuovo Fondo per la sicurezza dell'IA del Frontier Model Forum: un impegno da parte di @Google, @AnthropicAI, @Microsoft e @OpenAI di oltre $10 milioni di euro per far progredire la ricerca indipendente e contribuire a testare e valutare i modelli di IA più validi. ↓ https://t.co/TUhrKQWKc1
- Google DeepMind (@GoogleDeepMind) 25 ottobre 2023
Uno degli obiettivi principali dichiarati del Frontier Model Forum è la "collaborazione tra settori". Un aspetto che potrebbe ostacolare le loro ambizioni di collaborazione è la notevole assenza di Meta.
All'inizio di quest'anno il Forum ha sottoscritto alla Casa Bianca impegni volontari in materia di IA. Anche in assenza di Meta, il gruppo potrebbe avere un peso sufficiente per definire standard di IA che potrebbero essere adottati più diffusamente.
Resta da vedere come questi standard finiranno per diventare legge. Con il dissenso su aree chiave come i dati di formazione o la rischi potenziali associati ai modelli open-sourcesarà difficile trovare un consenso.