Questa settimana Microsoft, Google, OpenAI e Anthropic hanno costituito il Frontier Model Forum, dedicato alla sicurezza e alla responsabilità dell'IA.
Il Forum missione comprende l'identificazione delle migliori pratiche di IA, il supporto ai settori pubblico e privato, la collaborazione con il mondo accademico e la collaborazione con i politici per garantire che i benefici dell'IA siano incanalati e i suoi rischi mitigati.
Questo avviene poco dopo che 7 aziende di IA hanno optato per un quadro volontario sull'IA. delineato dalla Casa Bianca.
Questa collaborazione tra rivali è stata relativamente comune nel fiorente settore dell'intelligenza artificiale, dove i concorrenti hanno occasionalmente condiviso hardware e ricerca, ma ciò non significa che la vera sostanza dietro ai modelli non rimanga sotto chiave.
OpenAI, sostenuto da Microsoft, è stato collaborare con i rivali dell'aziendaSalesforce e Duckduckgo, dimostrando che le relazioni nel mondo dell'intelligenza artificiale sono complicate.
Gli esperti ritengono che il successo del Forum richieda un livello di collaborazione che vada oltre la condivisione delle risorse per il reciproco vantaggio, e che implichi che le aziende di IA rivelino i loro meccanismi più intimi.
L'analista di punta di Gartner, Avivah Litan, dubita che il Forum raggiunga i suoi obiettivi, affermando: "Le possibilità che un gruppo di irriducibili concorrenti arrivi a una soluzione utile comune e che riesca effettivamente a farla implementare in modo ubiquo - sia nei modelli chiusi che in quelli open source che loro e altri controllano in tutto il mondo - sono praticamente nulle".
Il Forum è attualmente composto da 4 membri fondatori, ma è aperto ad altre organizzazioni impegnate nello sviluppo di modelli sicuri e nel supporto di iniziative di settore più ampie.
Litan ha espresso ottimismo nei confronti delle aziende una regolamentazione più efficace collettivamente, ma ha sottolineato la necessità di un organismo di regolamentazione internazionale che applichi gli standard globali dell'IA.
"Dato che non abbiamo ancora assistito a una collaborazione governativa globale sul cambiamento climatico, dove le soluzioni sono già note, aspettarsi una simile cooperazione sull'IA, con soluzioni ancora non definite, è ancora più difficile. Almeno queste aziende possono sforzarsi di individuare soluzioni, e questo è un aspetto positivo", ha dichiarato Litan.
Alcuni esprimono ottimismo riguardo al Forum sul modello di frontiera
Kate Devlin, docente senior di IA presso il King's College di Londra, ha riconosciuto i sentimenti positivi del Frontier Model Forum.
"L'annuncio sembra concentrarsi principalmente sugli approcci tecnici. Tuttavia, quando si sviluppa l'IA in modo responsabile, è necessario affrontare aspetti socio-tecnici più ampi", ha dichiarato il Dr. Devlin. notato.
Inoltre, il Forum potrebbe semplificare la cooperazione in materia di regolamentazione, garantendo l'applicazione delle norme a livello di settore.
Ad esempio, il Forum si è impegnato a sostenere il processo Hiroshima AI del G7, un patto stipulato al Vertice G7 in Giappone, richiedendo la collaborazione con l'OCSE e la GPAI.
Con l'assenza di regole obbligatorie che circondano l'IA, la direzione della tecnologia rimane nelle mani degli sviluppatori, che tentano almeno superficialmente di contenere i rischi nell'immediato.
I risultati degli sforzi di collaborazione, come il Forum, sono molto attesi.