O Fórum do modelo de fronteira: funcionará?

28 de julho de 2023

Google Microsoft

Esta semana, a Microsoft, a Google, a OpenAI e a Anthropic formaram o Frontier Model Forum, dedicado à segurança e responsabilidade da IA. 

O Fórum missão inclui a identificação das melhores práticas de IA, o apoio aos sectores público e privado, a colaboração com os académicos e o trabalho com os decisores políticos para garantir que os benefícios da IA são canalizados e os seus riscos atenuados.

Isto acontece pouco depois de 7 empresas de IA terem optado por um quadro voluntário para a IA delineado pela Casa Branca

Este tipo de colaboração entre rivais tem sido relativamente comum na florescente indústria da IA, em que os concorrentes partilham ocasionalmente hardware e investigação, mas isso não quer dizer que a verdadeira substância por detrás dos modelos não permaneça fechada a sete chaves. 

A OpenAI, apoiada pela Microsoft, tem sido colaborar com os rivais da empresaSalesforce e Duckduckgo, mostrando que as relações no mundo da IA são complicadas.

Os especialistas acreditam que o sucesso do Fórum exige um nível de colaboração que vai para além da partilha de recursos para benefício mútuo - implica que as empresas de IA revelem o seu funcionamento mais íntimo. 

Avivah Litan, uma das principais analistas da Gartner, tem dúvidas sobre se o Fórum conseguirá atingir os seus objectivos, afirmando: "As hipóteses de um grupo de concorrentes obstinados chegar a uma solução útil comum e conseguir que seja implementada de forma omnipresente - tanto em modelos fechados como de código aberto que eles e outros controlam em todo o mundo - são praticamente nulas."

O Fórum é atualmente constituído por 4 membros fundadores, mas está aberto a outras organizações empenhadas no desenvolvimento de modelos seguros e no apoio a iniciativas mais amplas do sector.

Litan mostrou-se otimista em relação às empresas regulamentação com maior influência coletivamente, mas salientou a necessidade de um organismo regulador internacional para fazer cumprir as normas globais de IA. 

"Dado que ainda não assistimos a uma colaboração governamental global no domínio das alterações climáticas, em que as soluções já são conhecidas, é ainda mais difícil esperar essa cooperação no domínio da IA, com soluções ainda indefinidas. Pelo menos, estas empresas podem esforçar-se por identificar soluções, o que é um aspeto positivo", afirmou Litan.

Alguns manifestam otimismo em relação ao Fórum do Modelo de Fronteira 

A Dra. Kate Devlin, professora sénior de IA no King's College de Londres, reconheceu os sentimentos positivos do Frontier Model Forum. 

"O anúncio parece concentrar-se principalmente em abordagens técnicas. No entanto, quando se desenvolve a IA de forma responsável, há aspectos sociotécnicos mais vastos que devem ser abordados", afirmou o Dr. Devlin registado

Além disso, o Fórum poderia simplificar a cooperação em matéria de regulamentação, garantindo a aplicação das regras a todo o sector.

Por exemplo, o Fórum comprometeu-se a apoiar o processo de IA de Hiroshima do G7, um pacto celebrado na Cimeira do G7 no Japão, solicitando a colaboração da OCDE e do GPAI. 

Com poucas ou nenhumas regras obrigatórias em torno da IA, a direção da tecnologia permanece no colo dos criadores, que tentam, pelo menos superficialmente, limitar os riscos a curto prazo.

Os resultados dos esforços de colaboração, como o Fórum, estão muito pendentes.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições