A Google, a Microsoft, a Anthropic e a OpenAI anunciaram a formação do Frontier Model Forum, um coletivo liderado pela indústria empenhado em salvaguardar o futuro dos modelos de IA de "fronteira".
O Frontier Model Forum tem como objetivo promover o desenvolvimento positivo da IA, melhorar a investigação sobre segurança, identificar as melhores práticas e criar um nexo de colaboração para comunicar com o público e as partes interessadas.
Os blogues da Google e da Microsoft sublinham que a adesão ao Fórum está aberta a outros programadores de IA, mas os membros fundadores são notáveis por incluírem as empresas OpenAI e Anthropic, apoiadas pela Google e pela Microsoft.
A colaboração inter-industrial no domínio da IA tem sido um tema de conversa durante grande parte do ano.
Esta é uma das primeiras provas concretas que vimos de que a Microsoft e a Google, pelo menos, vão trabalhar em conjunto na IA - será interessante ver se a Meta, a Amazon, a Inflection e outras também aderem.
Os "modelos de fronteira", termo cunhado pelo Fórum, definem os modelos de aprendizagem automática em grande escala que eclipsam as capacidades dos modelos existentes. Com a sua capacidade de executar uma vasta gama de tarefas, estes modelos de fronteira abriram novas fronteiras para a inovação tecnológica, daí o nome.
Os modelos de fronteira podem ser descritos como "agentes generalistas", capazes de executar tarefas polivalentes e multimodais em várias disciplinas.
O anúncio do Frontier Model Forum coincide com as crescentes pressões sobre as empresas de IA para se auto-regularem, incluindo um quadro anunciado pela Casa Branca com a qual já concordaram 7 empresas líderes no sector da IA: Google, Anthropic, Microsoft, Amazon, OpenAI, Meta e Inflection.
O que é que o Frontier Model Forum vai fazer?
A Publicação no blogue da Microsoft delineou 4 áreas-chave de investigação para o Fórum:
- Avançar na investigação sobre a segurança da IAh: O Fórum pretende promover o desenvolvimento responsável de modelos de ponta, minimizar os riscos potenciais e facilitar avaliações independentes e normalizadas das capacidades e da segurança da IA.
- Identificar as melhores práticas: Orientada para a definição e partilha de práticas responsáveis para o desenvolvimento e implantação de modelos de fronteira, bem como para a promoção da compreensão pública da natureza, capacidades, limitações e impactos da tecnologia de IA.
- Promover a colaboração: Os membros têm como objetivo partilhar conhecimentos sobre confiança e riscos de segurança com decisores políticos, académicos, sociedade civil e outras empresas do sector.
- Responder aos desafios societais: O fórum apoia o desenvolvimento de aplicações de IA para fazer face a alguns dos principais desafios da sociedade, como as alterações climáticas, a deteção e prevenção precoce do cancro e as ameaças à cibersegurança.
Nos próximos meses, o Fórum do Modelo de Fronteira estabelecerá um Conselho Consultivo para orientar a sua estratégia e prioridades. Um grupo de trabalho e um conselho executivo estabelecerão disposições institucionais essenciais, incluindo uma carta, governação e financiamento.
O Fórum tenciona igualmente consultar a sociedade civil e os governos nas próximas semanas sobre a conceção do Fórum e as potenciais vias de colaboração. Isto inclui o apoio a iniciativas multilaterais como o processo de Hiroshima do G7, o trabalho da OCDE sobre os riscos da IA e o Conselho de Comércio e Tecnologia EUA-UE.
Líderes do sector dão o seu contributo
Os executivos e investigadores dos 4 membros actuais do Fórum discutiram a sua intenção de trabalhar em conjunto para o futuro da IA.
Kent Walker, Presidente de Assuntos Globais da Google & Alphabet, afirmou: "Estamos entusiasmados por trabalhar em conjunto com outras empresas líderes, partilhando conhecimentos técnicos para promover a inovação responsável da IA. O envolvimento de empresas, governos e sociedade civil será essencial para cumprir a promessa da IA de beneficiar a todos."
Brad Smith, Vice-Presidente e Presidente da Microsoft, fez eco do sentimento de Walker. Ele enfatizou a responsabilidade das empresas que lideram o desenvolvimento da IA, dizendo: "As empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura, protegida e permaneça sob controlo humano. Esta iniciativa é um passo vital para reunir o setor de tecnologia no avanço da IA de forma responsável e enfrentar os desafios para que ela beneficie toda a humanidade.
Anna Makanju, vice-presidente de assuntos globais da OpenAI, destacou o equilíbrio entre os benefícios e a supervisão necessária da IA avançada, afirmando: "As tecnologias avançadas de IA têm o potencial de beneficiar profundamente a sociedade, e a capacidade de atingir esse potencial requer supervisão e governança. É vital que as empresas de IA - especialmente aquelas que trabalham nos modelos mais poderosos - se alinhem em um terreno comum e promovam práticas de segurança ponderadas e adaptáveis para garantir que as poderosas ferramentas de IA tenham o maior benefício possível. Este é um trabalho urgente e este fórum está bem posicionado para agir rapidamente para fazer avançar o estado da segurança da IA.
Dario Amodei, Diretor Executivo da Anthropic, afirmou o potencial da IA para remodelar o mundo, declarando: "A Anthropic acredita que a IA tem o potencial de mudar fundamentalmente a forma como o mundo funciona. Estamos entusiasmados por colaborar com a indústria, a sociedade civil, o governo e o meio académico para promover o desenvolvimento seguro e responsável da tecnologia. O Frontier Model Forum desempenhará um papel vital na coordenação das melhores práticas e na partilha de investigação sobre a segurança da IA de fronteira."
As empresas de tecnologia parecem estar a lançar as bases para uma nova era de IAs extremamente inteligentes, e as coisas estão a avançar rapidamente, uma vez que só no início deste ano é que os políticos da UE e dos EUA começaram a incentivar a colaboração imediata da indústria.