Nvidia dévoile sa nouvelle puce phare, la H200, disponible début 2024

13 novembre 2023

Nvidia

Nvidia a dévoilé la H200, sa nouvelle puce haut de gamme conçue pour l'entraînement des modèles d'IA.

Annoncé le lundi 13 novembre 2023, ce nouveau GPU devrait décupler les capacités des modèles d'IA en intégrant 141 Go de mémoire "HBM3" de nouvelle génération.

Le H200 représente une évolution par rapport à son prédécesseur, le H100, qui a joué un rôle déterminant dans l'écosystème de l'IA.

L'engouement pour les GPU AI de Nvidia a fait grimper l'action de la société d'un tiers. phénoménal 230% en 2023L'entreprise prévoit un chiffre d'affaires d'environ $16 milliards pour son troisième trimestre fiscal, soit une augmentation de 170% par rapport à l'année précédente.

L'une des principales caractéristiques du H200 est l'amélioration de ses performances en matière d'inférence, c'est-à-dire le processus consistant à utiliser un modèle d'IA formé pour faire des prédictions ou prendre des décisions sur la base de nouvelles données inédites. 

Cette phase se distingue de la phase d'apprentissage d'un modèle, au cours de laquelle l'IA apprend des modèles à partir d'un vaste ensemble de données. 

Les données actuelles suggèrent que les performances de la H200 sont presque deux fois supérieures à celles de la H100, comme le montrent les tests de référence Llama 2 de Meta sur les grands modèles de langage (LLM). 

Prévu pour être livré au deuxième trimestre 2024, le H200 commencera probablement à accumuler d'immenses commandes de la part des entreprises d'IA du monde entier, à l'exception de la Chine, de l'Iran et de la Russie, auxquels le H200 est destiné. Les exportations américaines de matériel d'IA sont interdites

Le H200 sera compatible avec les systèmes existants utilisant le H100, ce qui permettra aux entreprises d'IA de se mettre à niveau sans avoir à modifier leurs systèmes de serveurs ou leurs logiciels.

Il sera disponible dans des configurations de serveur à quatre ou huit GPU sur les systèmes complets HGX de Nvidia, ainsi que sous la forme d'une puce distincte appelée GH200, associant le GPU H200 à un processeur basé sur la technologie Arm.

Cependant, la position du H200 en tant que puce Nvidia AI la plus rapide pourrait être de courte durée. En raison de la forte demande pour ses GPU, Nvidia prévoit de passer à des modèles de lancement annuels afin de garder l'industrie de l'IA dans sa poche. 

Une autre puce est en préparation, la puce B100, basée sur une architecture Blackwell entièrement nouvelle, qui pourrait être annoncée et commercialisée en 2024.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation