Nvidia a dévoilé la H200, sa nouvelle puce haut de gamme conçue pour l'entraînement des modèles d'IA.
Annoncé le lundi 13 novembre 2023, ce nouveau GPU devrait décupler les capacités des modèles d'IA en intégrant 141 Go de mémoire "HBM3" de nouvelle génération.
Le H200 représente une évolution par rapport à son prédécesseur, le H100, qui a joué un rôle déterminant dans l'écosystème de l'IA.
L'engouement pour les GPU AI de Nvidia a fait grimper l'action de la société d'un tiers. phénoménal 230% en 2023L'entreprise prévoit un chiffre d'affaires d'environ $16 milliards pour son troisième trimestre fiscal, soit une augmentation de 170% par rapport à l'année précédente.
L'une des principales caractéristiques du H200 est l'amélioration de ses performances en matière d'inférence, c'est-à-dire le processus consistant à utiliser un modèle d'IA formé pour faire des prédictions ou prendre des décisions sur la base de nouvelles données inédites.
Cette phase se distingue de la phase d'apprentissage d'un modèle, au cours de laquelle l'IA apprend des modèles à partir d'un vaste ensemble de données.
Les données actuelles suggèrent que les performances de la H200 sont presque deux fois supérieures à celles de la H100, comme le montrent les tests de référence Llama 2 de Meta sur les grands modèles de langage (LLM).
Prévu pour être livré au deuxième trimestre 2024, le H200 commencera probablement à accumuler d'immenses commandes de la part des entreprises d'IA du monde entier, à l'exception de la Chine, de l'Iran et de la Russie, auxquels le H200 est destiné. Les exportations américaines de matériel d'IA sont interdites.
Le H200 sera compatible avec les systèmes existants utilisant le H100, ce qui permettra aux entreprises d'IA de se mettre à niveau sans avoir à modifier leurs systèmes de serveurs ou leurs logiciels.
Il sera disponible dans des configurations de serveur à quatre ou huit GPU sur les systèmes complets HGX de Nvidia, ainsi que sous la forme d'une puce distincte appelée GH200, associant le GPU H200 à un processeur basé sur la technologie Arm.
Cependant, la position du H200 en tant que puce Nvidia AI la plus rapide pourrait être de courte durée. En raison de la forte demande pour ses GPU, Nvidia prévoit de passer à des modèles de lancement annuels afin de garder l'industrie de l'IA dans sa poche.
Une autre puce est en préparation, la puce B100, basée sur une architecture Blackwell entièrement nouvelle, qui pourrait être annoncée et commercialisée en 2024.