A Salesforce, uma empresa de software empresarial, revelou dois modelos compactos de IA que desafiam o paradigma "maior é melhor" na IA.
Apesar do seu tamanho compacto, os modelos xLAM de 1 e 7 biliões de parâmetros têm um desempenho superior ao de muitos modelos maiores em tarefas de chamada de funções.
Estas tarefas envolvem um sistema de IA que interpreta e traduz um pedido em linguagem natural em chamadas de função específicas ou pedidos de API.
Por exemplo, se pedir a um sistema de IA para "encontrar voos para Nova Iorque para o próximo fim de semana abaixo de $500", o modelo tem de compreender este pedido, identificar as funções relevantes (por exemplo, search_flights, filter_by_price) e executá-las com os parâmetros correctos.
"Demonstramos que os modelos treinados com os nossos conjuntos de dados seleccionados, mesmo com apenas 7B parâmetros, podem atingir o desempenho mais avançado no Berkeley Function-Calling Benchmark, superando vários modelos GPT-4", escrevem os investigadores no seu artigo.
"Além disso, o nosso modelo 1B atinge um desempenho excecional, ultrapassando o GPT-3.5-Turbo e o Claude-3 Haiku."
O Referência de chamada de função de Berkeley, referido no estudo, é um quadro de avaliação concebido para avaliar as capacidades de chamada de funções dos modelos de IA.
Principais estatísticas da estudo incluem:
- O modelo xLAM-7B (7 mil milhões de parâmetros) ficou em 6º lugar na tabela de classificação de chamadas de função de Berkeley, superando o GPT-4 e o Gemini-1.5-Pro.
- O modelo xLAM-1B mais pequeno superou os modelos maiores, como o Claude-3 Haiku e o GPT-3.5-Turbo, demonstrando uma eficiência excecional.
O que torna este feito particularmente impressionante é o tamanho do modelo em comparação com os seus concorrentes:
- xLAM-1B: 1 bilião de parâmetros
- xLAM-7B: 7 mil milhões de parâmetros
- GPT-3: 175 mil milhões de parâmetros
- GPT-4: Estimativa de 1,7 triliões de parâmetros
- Claude-3 Opus: Não revelado, mas provavelmente centenas de milhares de milhões
- Gemini Ultra: Não revelado, estimado como semelhante ao GPT-4
Isto mostra que uma conceção eficiente e dados de formação de elevada qualidade podem ser mais importantes do que a sua dimensão.
Conheça o Salesforce Einstein "Tiny Giant". Nosso modelo de parâmetro 1B xLAM-1B é agora o melhor micromodelo para chamada de função, superando modelos 7x seu tamanho, incluindo GPT-3.5 & Claude. A IA agêntica no dispositivo está aqui. Parabéns à Salesforce Research!
Papel: https://t.co/SrntYvgxR5... pic.twitter.com/pPgIzk82xT
- Marc Benioff (@Benioff) 3 de julho de 2024
Para treinar o modelo especificamente para a identificação de funções, a equipa da Salesforce desenvolveu o APIGen, um pipeline para criar conjuntos de dados diversificados e de alta qualidade para tarefas de identificação de funções.
O APIGen funciona através da amostragem de uma vasta biblioteca de 3673 API executáveis em 21 categorias, criando cenários realistas com os quais a IA pode aprender.
As aplicações potenciais das capacidades do xLAM-1B incluem sistemas melhorados de gestão das relações com os clientes (CRM), que a Salesforce desenvolve, assistentes digitais mais capazes, interfaces melhoradas para dispositivos domésticos inteligentes, processamento eficiente de IA para veículos autónomos e tradução de línguas em tempo real em dispositivos de ponta.
Estes modelos xLAM desafiam os investigadores a repensar a sua arquitetura de IA e as abordagens de formação, demonstrando que modelos mais pequenos e mais eficientes podem competir com modelos maiores.
Como explicou o CEO da Salesforce, Marc Benioff, a Tiny Giant destaca o potencial da "IA agêntica no dispositivo", perfeita para smartphones e dispositivos IoT.
O futuro da IA não passará apenas por modelos cada vez maiores, mas também por modelos mais inteligentes e mais eficientes, capazes de oferecer funcionalidades avançadas a uma gama mais vasta de dispositivos e aplicações.