AMD apunta a Nvidia con un nuevo chip de IA y la GPU Instinct MI325X

4 de junio de 2024

AMD anunció que su GPU MI325X saldría a la venta a finales de este año y que supera a las GPU H200 de NVIDIA en varios frentes.

NVIDIA es el líder actual en ventas de chips para centros de datos, y se calcula que posee más del 70% de la cuota de mercado de chips de IA, pero Intel y AMD están avanzando con sus propias ofertas.

En el evento Computex 2024 de Taiwán, la consejera delegada de AMD, Lisa Su, anunció que la GPU Instinct MI325X saldría a la venta a finales de este año. AMD afirma que su sucesora de la MI300 contará con más memoria y un rendimiento de datos más rápido.

AMD está consiguiendo una mayor adopción de sus chips para centros de datos, con empresas como Microsoft incorporándolos a sus servicios en la nube Azure, mientras que Microsoft, Meta y Oracle han adoptado la plataforma MI300. La empresa tiene como objetivo unas ventas de $4b para 2024.

Su afirma que la MI325X supera con creces a la popular GPU H200 de NVIDIA en capacidad de memoria, ancho de banda y rendimiento.

El MI325X cuenta con hasta 288 GB de memoria HBM3e y 6 TBps de ancho de banda. Esto es más del doble de memoria que la H200 de NVIDIA, con una velocidad de transmisión de datos 30% superior.

Alcanza un rendimiento teórico máximo de 2,6 petaflops con coma flotante de 8 bits (FP8) y 1,3 petaflops con coma flotante de 16 bits (FP16). Es decir, 301 petaflops más que el H200.

Un solo servidor compuesto por ocho de estas GPU combinadas en la plataforma Instinct MI325X tendrá memoria suficiente para ejecutar modelos de IA avanzados de hasta 1 billón de parámetros, el doble del tamaño que admite un servidor H200.

Mientras que NVIDIA H200 es su GPU estrella actualmente disponible, Su no mencionó cómo se compararía el MI325X con el Blackwell GPU que NVIDIA empezará a comercializar a finales de este año.

Los modelos Blackwell de gama alta tendrán hasta 192 GB de memoria HBM3e con 8 TB/s de ancho de banda. Es bastante menos memoria pero más ancho de banda que la oferta superior de AMD.

AMD afirma que va a acelerar el desarrollo de nuevas GPU con una nueva familia de GPU que saldrá al mercado cada año. Esa es la misma cadencia que Jensen Huang, Consejero Delegado de NVIDIA, ha declarado que NVIDIA tiene como objetivo.

En 2050 AMD lanzará el MI350, que utilizará un proceso de 3 nm y empleará la arquitectura CDNA 4 de AMD.

Su afirma que la arquitectura CDNA 4 supondrá un salto generacional en la computación de IA que multiplicará por 35 el rendimiento de la inferencia con respecto a su actual arquitectura CDNA 3.

Para transferir todos esos datos entre clústeres de GPU y servidores se necesitan redes de alta velocidad. Su concluyó su intervención diciendo que "el futuro de las redes de IA debe ser abierto".

Anunció que la semana pasada, AMD se unió a un consorcio de empresas de alta computación con el objetivo de desarrollar un estándar de red de gran ancho de banda y baja latencia para conectar cientos de aceleradores de IA.

NVIDIA no fue invitada a participar en el proyecto y tiene su propio estándar propietario. Su dice que el estándar UALink será una "gran alternativa a las opciones propietarias".

Las líneas de batalla de las GPU de IA se han trazado con muy poca sutileza y NVIDIA debe estar empezando a sentir el calor de AMD e Intel.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales