Os chips H100 da Nvidia batem recordes de treino de IA num teste de referência

27 de junho de 2023

AI H100

As novas GPUs H100 da NVIDIA estabeleceram novos padrões de referência para tarefas de treino de IA, batendo vários recordes no processo. 

O MLPerf foi fundado por um consórcio de investigadores, académicos e outros especialistas que criaram referências para testar a rapidez com que os sistemas podem implementar e executar modelos de IA. Essencialmente, o MLPerf é uma série de testes concebidos para medir a velocidade e a eficiência do hardware, software e serviços de aprendizagem automática (ML). 

A Nvidia, líder mundial em hardware de IA, testou um cluster de 3.584 GPUs H100 para flexibilizar a sua formidável velocidade. 

O cluster, co-desenvolvido pela startup de IA Inflection AI e gerido pela CoreWeave, um fornecedor de serviços na nuvem especializado em cargas de trabalho baseadas em GPU, completou um benchmark de treino baseado no modelo GPT-3 em menos de 11 minutos. 

Por outras palavras, o cluster treinou um modelo equivalente ao GPT-3 com cerca de 175 mil milhões de parâmetros no mesmo tempo que demora a preparar um café ou a passear o cão. Embora não saibamos quanto tempo a OpenAI levou para treinar o GPT-3, certamente não foram 11 minutos. 

As GPUs H100 estabeleceram recordes em 8 outros testes MLPerf, demonstrando a sua potência bruta e versatilidade. Aqui estão alguns dos resultados: 

  • Modelo de língua grande (GPT-3): 10,9 minutos
  • Processamento de linguagem natural (BERT): 0,13 minutos (8 segundos)
  • Recomendação (DLRMv2): 1,61 minutos
  • Deteção de objectos, peso pesado (Máscara R-CNN): 1.47 minutos
  • Deteção de objectos, leve (RetinaNet): 1,51 minutos
  • Classificação de imagens (ResNet-50 v1.5): 0,18 minutos (11 segundos)
  • Segmentação de imagens (3D U-Net): 0,82 minutos (49 segundos)
  • Reconhecimento do discurso (RNN-T): 1,65 minutos

Na sua última ronda de avaliação comparativa, denominada v3.0, o MLPerf também actualizou o seu teste para sistemas de recomendação, que são algoritmos que sugerem produtos ou serviços aos utilizadores com base no seu comportamento passado. 

O novo teste utiliza um conjunto de dados maior e um modelo de IA mais atual para emular melhor os desafios enfrentados pelos fornecedores de serviços. A Nvidia é a única empresa a apresentar resultados neste teste de referência.

Avaliação comparativa do MLPerf

MLCommonsum consórcio de IA e tecnologia, anunciou recentemente os mais recentes resultados dos seus testes de aferição de desempenho de IA.

A ronda de referência principal foi designada v3.0, que avalia a eficiência da formação de modelos de aprendizagem automática. Outra ronda, denominada Tiny v1.1, examina as aplicações de aprendizagem automática para dispositivos ultra-compactos e de baixo consumo.

A ronda MLPerf v3.0 contou com a participação de empresas como a ASUSTek, Azure, Dell, Fujitsu, GIGABYTE, H3C, IEI, Intel & Habana Labs, Krai, Lenovo, NVIDIA, NVIDIA + CoreWeave, Quanta Cloud Technology, Supermicro e xFusion. 

Globalmente, os modelos apresentaram melhorias de desempenho até 1,54x nos últimos 6 meses ou 33 a 49x desde a primeira ronda, v0.5em 2019, o que ilustra o ritmo de progresso dos sistemas de aprendizagem automática.

A Nvidia conquistou o escalpe da ronda v3.0 graças aos seus chips H100 ultra-ultra-altos, que provavelmente manterão num futuro próximo.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições