AMD a annoncé que son GPU MI325X serait commercialisé dans le courant de l'année et qu'il surpasserait les GPU H200 de NVIDIA sur plusieurs fronts.
NVIDIA est actuellement le leader des ventes de puces pour centres de données et détient, selon les estimations, plus de 70% de parts de marché pour les puces d'IA, mais Intel et AMD progressent avec leurs propres offres.
Lors de l'événement Computex 2024 à Taïwan, Lisa Su, PDG d'AMD, a annoncé que le GPU Instinct MI325X serait commercialisé dans le courant de l'année. Selon AMD, le successeur du MI300 disposera de plus de mémoire et d'un débit de données plus rapide.
AMD gagne en popularité pour ses puces pour centres de données, avec des entreprises comme Microsoft qui les intègrent dans leurs services en nuage Azure, tandis que Microsoft, Meta et Oracle ont tous adopté la plateforme MI300. L'entreprise vise un chiffre d'affaires de $4b en 2024.
Su a déclaré que le MI325X était nettement plus performant que le GPU H200 de NVIDIA en termes de capacité de mémoire, de bande passante et de performances.
Le MI325X dispose de 288 Go de mémoire HBM3e et d'une bande passante de 6 To/s. C'est plus du double de la mémoire du H200 de NVIDIA et 30% de débit de données plus rapide. C'est plus du double de la mémoire dont dispose le H200 de NVIDIA, avec un débit de données plus rapide de 30%.
Il atteint un débit théorique maximal de 2,6 pétaflops en virgule flottante 8 bits (FP8) et de 1,3 pétaflops en virgule flottante 16 bits (FP16). C'est 30% de plus que le H200.
Un seul serveur composé de huit de ces GPU combinés sur la plateforme Instinct MI325X disposera de suffisamment de mémoire pour exécuter des modèles d'IA avancés comportant jusqu'à 1 000 milliards de paramètres, soit le double de la taille prise en charge par un serveur H200.
Aujourd'hui, à Computex, nous avons dévoilé une feuille de route pluriannuelle élargie pour les accélérateurs AMD Instinct, qui apportera une cadence annuelle de performances AI et de capacités de mémoire de premier plan à chaque génération. pic.twitter.com/PQKyVAnAVW
- AMD (@AMD) 3 juin 2024
Tandis que l'offre de NVIDIA H200 est son GPU phare actuellement disponible, Su n'a pas mentionné comment le MI325X se situerait par rapport au GPU de la Blackwell Les GPU de NVIDIA commenceront à être commercialisés dans le courant de l'année.
Les modèles Blackwell haut de gamme auront jusqu'à 192 Go de mémoire HBM3e avec une bande passante de 8 To/s. C'est un peu moins de mémoire mais plus de bande passante que l'offre supérieure d'AMD. C'est un peu moins de mémoire mais plus de bande passante que l'offre haut de gamme d'AMD.
AMD annonce qu'elle va accélérer le développement de nouveaux GPU avec une nouvelle famille de GPU qui devrait sortir chaque année. C'est la même cadence que Jensen Huang, CEO de NVIDIA, a déclaré que NVIDIA visait.
En 2050, AMD lancera le MI350 qui utilisera un processus de 3 nm et l'architecture CDNA 4 d'AMD.
Selon Su, l'architecture CDNA 4 constituera un saut générationnel dans le domaine de l'informatique de l'IA et permettra de multiplier par 35 les performances en matière d'inférence par rapport à l'architecture CDNA 3 actuelle.
Le transfert de toutes ces données entre les grappes de GPU et les serveurs nécessite un réseau à grande vitesse. Mme Su a conclu son discours en déclarant que "l'avenir de la mise en réseau de l'IA doit être ouvert".
Elle a annoncé que la semaine dernière, AMD a rejoint un consortium d'entreprises de haute technologie informatique dans le but de développer une norme de réseau à large bande passante et à faible latence pour connecter des centaines d'accélérateurs d'intelligence artificielle.
NVIDIA n'a pas été invitée à participer au projet et possède sa propre norme. Su a déclaré que la norme UALink constituera une "excellente alternative aux options propriétaires".
Les lignes de bataille des GPU IA ont été tracées avec très peu de subtilité et NVIDIA doit commencer à sentir la chaleur d'AMD et d'Intel.