Los chips H100 de Nvidia baten récords de entrenamiento de IA en una prueba de referencia

27 de junio de 2023

AI H100

Las nuevas GPU H100 de NVIDIA han establecido nuevas referencias en tareas de entrenamiento de IA, batiendo varios récords en el proceso. 

MLPerf fue fundado por un consorcio de investigadores, académicos y otros especialistas que crearon puntos de referencia para probar la rapidez con la que los sistemas pueden desplegar y ejecutar modelos de IA. En esencia, MLPerf es una serie de pruebas diseñadas para medir la velocidad y la eficiencia del hardware, el software y los servicios de aprendizaje automático (ML). 

Nvidia, líder mundial en hardware de IA, probó un clúster de 3.584 GPU H100 para flexionar su formidable velocidad. 

El clúster, desarrollado por Inflection AI y gestionado por CoreWeave, un proveedor de servicios en la nube especializado en cargas de trabajo basadas en GPU, completó una prueba de entrenamiento basada en el modelo GPT-3 en menos de 11 minutos. 

En otras palabras, el clúster entrenó un modelo equivalente a GPT-3 con unos 175.000 millones de parámetros en aproximadamente el mismo tiempo que se tarda en preparar un café o pasear al perro. Aunque no sabemos cuánto tardó OpenAI en entrenar GPT-3, lo cierto es que no fueron 11 minutos. 

Las GPU H100 batieron récords en otras 8 pruebas de MLPerf, demostrando su potencia bruta y versatilidad. Estos son algunos de los resultados: 

  • Gran modelo lingüístico (GPT-3): 10,9 minutos
  • Procesamiento del lenguaje natural (BERT): 0,13 minutos (8 segundos)
  • Recomendación (DLRMv2): 1,61 minutos
  • Detección de objetos, peso pesado (Mask R-CNN): 1.47 minutos
  • Detección de objetos, ligera (RetinaNet): 1.51 minutos
  • Clasificación de imágenes (ResNet-50 v1.5): 0,18 minutos (11 segundos)
  • Segmentación de imágenes (3D U-Net): 0,82 minutos (49 segundos)
  • Reconocimiento de voz (RNN-T): 1,65 minutos

En su última ronda de pruebas comparativas, denominada v3.0, MLPerf también actualizó su prueba para sistemas de recomendación, que son algoritmos que sugieren productos o servicios a los usuarios basándose en su comportamiento anterior. 

La nueva prueba utiliza un conjunto de datos más amplio y un modelo de IA más actual para emular mejor los retos a los que se enfrentan los proveedores de servicios. Nvidia es la única empresa que ha presentado resultados en esta prueba.

Evaluación comparativa MLPerf

MLCommonsun consorcio de IA y tecnología, acaba de anunciar los resultados más recientes de sus pruebas comparativas de IA.

La primera ronda de pruebas se denominó v3.0 y evalúa la eficiencia del entrenamiento de modelos de aprendizaje automático. Otra ronda, denominada Tiny v1.1, examina las aplicaciones de ML para dispositivos ultracompactos y de bajo consumo.

En la ronda MLPerf v3.0 participaron empresas como ASUSTek, Azure, Dell, Fujitsu, GIGABYTE, H3C, IEI, Intel & Habana Labs, Krai, Lenovo, NVIDIA, NVIDIA + CoreWeave, Quanta Cloud Technology, Supermicro y xFusion. 

En general, los modelos mostraron mejoras de rendimiento de hasta 1,54 veces en los últimos 6 meses o de 33 a 49 veces desde la primera ronda, v0.5, en 2019, lo que ilustra el ritmo de progreso de los sistemas de aprendizaje automático.

Nvidia se llevó la palma de la ronda v3.0 gracias a sus chips H100 de gama ultraalta, que probablemente mantendrá en un futuro próximo.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales