Esta semana, a Microsoft, a Google, a OpenAI e a Anthropic formaram o Frontier Model Forum, dedicado à segurança e responsabilidade da IA.
O Fórum missão inclui a identificação das melhores práticas de IA, o apoio aos sectores público e privado, a colaboração com os académicos e o trabalho com os decisores políticos para garantir que os benefícios da IA são canalizados e os seus riscos atenuados.
Isto acontece pouco depois de 7 empresas de IA terem optado por um quadro voluntário para a IA delineado pela Casa Branca.
Este tipo de colaboração entre rivais tem sido relativamente comum na florescente indústria da IA, em que os concorrentes partilham ocasionalmente hardware e investigação, mas isso não quer dizer que a verdadeira substância por detrás dos modelos não permaneça fechada a sete chaves.
A OpenAI, apoiada pela Microsoft, tem sido colaborar com os rivais da empresaSalesforce e Duckduckgo, mostrando que as relações no mundo da IA são complicadas.
Os especialistas acreditam que o sucesso do Fórum exige um nível de colaboração que vai para além da partilha de recursos para benefício mútuo - implica que as empresas de IA revelem o seu funcionamento mais íntimo.
Avivah Litan, uma das principais analistas da Gartner, tem dúvidas sobre se o Fórum conseguirá atingir os seus objectivos, afirmando: "As hipóteses de um grupo de concorrentes obstinados chegar a uma solução útil comum e conseguir que seja implementada de forma omnipresente - tanto em modelos fechados como de código aberto que eles e outros controlam em todo o mundo - são praticamente nulas."
O Fórum é atualmente constituído por 4 membros fundadores, mas está aberto a outras organizações empenhadas no desenvolvimento de modelos seguros e no apoio a iniciativas mais amplas do sector.
Litan mostrou-se otimista em relação às empresas regulamentação com maior influência coletivamente, mas salientou a necessidade de um organismo regulador internacional para fazer cumprir as normas globais de IA.
"Dado que ainda não assistimos a uma colaboração governamental global no domínio das alterações climáticas, em que as soluções já são conhecidas, é ainda mais difícil esperar essa cooperação no domínio da IA, com soluções ainda indefinidas. Pelo menos, estas empresas podem esforçar-se por identificar soluções, o que é um aspeto positivo", afirmou Litan.
Alguns manifestam otimismo em relação ao Fórum do Modelo de Fronteira
A Dra. Kate Devlin, professora sénior de IA no King's College de Londres, reconheceu os sentimentos positivos do Frontier Model Forum.
"O anúncio parece concentrar-se principalmente em abordagens técnicas. No entanto, quando se desenvolve a IA de forma responsável, há aspectos sociotécnicos mais vastos que devem ser abordados", afirmou o Dr. Devlin registado.
Além disso, o Fórum poderia simplificar a cooperação em matéria de regulamentação, garantindo a aplicação das regras a todo o sector.
Por exemplo, o Fórum comprometeu-se a apoiar o processo de IA de Hiroshima do G7, um pacto celebrado na Cimeira do G7 no Japão, solicitando a colaboração da OCDE e do GPAI.
Com poucas ou nenhumas regras obrigatórias em torno da IA, a direção da tecnologia permanece no colo dos criadores, que tentam, pelo menos superficialmente, limitar os riscos a curto prazo.
Os resultados dos esforços de colaboração, como o Fórum, estão muito pendentes.