Google, Microsoft, Anthropic e OpenAI hanno annunciato la formazione del Frontier Model Forum, un collettivo guidato dall'industria e impegnato a salvaguardare il futuro dei modelli di IA "di frontiera".
Il Frontier Model Forum mira a promuovere lo sviluppo positivo dell'IA, a migliorare la ricerca sulla sicurezza, a identificare le migliori pratiche e a creare un nesso collaborativo per comunicare con il pubblico e le parti interessate.
I post sui blog di Google e Microsoft sottolineano che l'adesione al Forum è aperta ad altri sviluppatori di IA, ma tra i membri fondatori spiccano le startup OpenAI e Anthropic, sostenute da Google e Microsoft.
La collaborazione interindustriale sull'IA è stata un argomento di discussione per gran parte dell'anno.
Questa è una delle prime prove concrete che abbiamo visto che Microsoft e Google, almeno, lavoreranno insieme sull'IA - sarà interessante vedere se Meta, Amazon, Inflection e altri si uniranno a loro.
I "modelli di frontiera", termine coniato dal Forum, definiscono modelli di apprendimento automatico su larga scala che superano le capacità dei modelli esistenti. Grazie alla loro capacità di eseguire un'ampia gamma di compiti, questi modelli di frontiera hanno aperto nuove frontiere per l'innovazione tecnologica, da cui il nome.
I modelli di frontiera potrebbero essere descritti come "agenti generalisti", in grado di svolgere compiti multi-specializzati e multi-modali in numerose discipline.
L'annuncio del Frontier Model Forum è in concomitanza con le crescenti pressioni sulle aziende di IA affinché si autoregolino, tra cui una quadro annunciato dalla Casa Bianca a cui hanno già aderito 7 aziende leader nel settore dell'IA: Google, Anthropic, Microsoft, Amazon, OpenAI, Meta e Inflection.
Cosa farà il Frontier Model Forum?
A Post sul blog di Microsoft ha delineato 4 aree chiave di ricerca per il Forum:
- Ricerca sulla sicurezza dell'IAh: Il Forum intende promuovere lo sviluppo responsabile di modelli di frontiera, ridurre al minimo i rischi potenziali e facilitare valutazioni indipendenti e standardizzate delle capacità e della sicurezza dell'IA.
- Identificare le migliori pratiche: Orientato a delineare e condividere pratiche responsabili per lo sviluppo e la diffusione di modelli di frontiera, nonché a promuovere la comprensione pubblica della natura, delle capacità, dei limiti e degli impatti della tecnologia AI.
- Promuovere la collaborazione: I membri mirano a condividere le conoscenze sui rischi per la fiducia e la sicurezza con i responsabili politici, gli accademici, la società civile e le altre aziende del settore.
- Affrontare le sfide della società: Il forum sostiene lo sviluppo di applicazioni di IA per affrontare alcune delle principali sfide della società, come il cambiamento climatico, la diagnosi e la prevenzione precoce del cancro e le minacce alla sicurezza informatica.
Nei prossimi mesi il Frontier Model Forum istituirà un comitato consultivo che ne guiderà la strategia e le priorità. Un gruppo di lavoro e un comitato esecutivo stabiliranno gli accordi istituzionali fondamentali, tra cui uno statuto, la governance e i finanziamenti.
Nelle prossime settimane, inoltre, il Forum intende consultarsi con la società civile e i governi sulla struttura del Forum e sulle potenziali vie di collaborazione. Ciò include il sostegno a iniziative multilaterali come il processo di Hiroshima del G7, il lavoro dell'OCSE sui rischi dell'IA e il Consiglio per il commercio e la tecnologia USA-UE.
I leader del settore esprimono il loro parere
Dirigenti e ricercatori di tutti e quattro gli attuali membri del Forum hanno discusso la loro intenzione di lavorare insieme per il futuro dell'IA.
Kent Walker, Presidente di Global Affairs di Google & Alphabet, ha dichiarato: "Siamo entusiasti di collaborare con altre aziende leader, condividendo le competenze tecniche per promuovere un'innovazione responsabile dell'IA. L'impegno di aziende, governi e società civile sarà essenziale per mantenere la promessa dell'IA a beneficio di tutti".
Brad Smith, vicepresidente e presidente di Microsoft, ha fatto eco al pensiero di Walker. Ha sottolineato la responsabilità delle aziende che guidano lo sviluppo dell'IA, affermando: "Le aziende che creano tecnologia IA hanno la responsabilità di garantire che sia sicura, protetta e che rimanga sotto il controllo umano. Questa iniziativa è un passo fondamentale per unire il settore tecnologico nell'avanzamento dell'IA in modo responsabile e nell'affrontare le sfide che ne derivano a beneficio di tutta l'umanità".
Anna Makanju, vicepresidente degli Affari globali di OpenAI, ha sottolineato l'equilibrio tra i benefici e la necessaria supervisione dell'IA avanzata, affermando: "Le tecnologie avanzate di IA hanno il potenziale di apportare profondi benefici alla società, ma la capacità di realizzare questo potenziale richiede supervisione e governance. È fondamentale che le aziende di IA - specialmente quelle che lavorano sui modelli più potenti - si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate e adattabili per garantire che i potenti strumenti di IA abbiano i più ampi benefici possibili. Si tratta di un lavoro urgente e questo forum è ben posizionato per agire rapidamente per far progredire lo stato della sicurezza dell'IA".
Dario Amodei, CEO di Anthropic, ha affermato il potenziale dell'IA per rimodellare il mondo: "Anthropic crede che l'IA abbia il potenziale per cambiare radicalmente il modo in cui funziona il mondo. Siamo entusiasti di collaborare con l'industria, la società civile, il governo e il mondo accademico per promuovere uno sviluppo sicuro e responsabile di questa tecnologia. Il Frontier Model Forum svolgerà un ruolo fondamentale nel coordinare le migliori pratiche e condividere la ricerca sulla sicurezza dell'IA di frontiera".
Le aziende tecnologiche sembrano gettare le basi per una nuova era di IA estremamente intelligenti e le cose si stanno muovendo rapidamente, visto che solo all'inizio di quest'anno i politici dell'UE e degli Stati Uniti hanno iniziato a incoraggiare una collaborazione immediata con l'industria.