Nvidia's H100-chips verbrijzelen AI-trainingsrecords in benchmarktest

27 juni 2023

AI H100

NVIDIA's nieuwe H100 GPU's hebben nieuwe benchmarks gezet voor AI-trainingstaken en daarbij verschillende records gebroken. 

MLPerf is opgericht door een consortium van onderzoekers, academici en andere specialisten die benchmarks hebben gebouwd om te testen hoe snel systemen AI-modellen kunnen implementeren en uitvoeren. In essentie is MLPerf een reeks tests die zijn ontworpen om de snelheid en efficiëntie van machine learning (ML) hardware, software en diensten te meten. 

Nvidia, de wereldleider in AI-hardware, testte een cluster van 3.584 H100 GPU's om hun formidabele snelheid te laten zien. 

Het cluster, mede ontwikkeld door AI startup Inflection AI en beheerd door CoreWeave, een cloud service provider gespecialiseerd in GPU-gebaseerde workloads, voltooide een trainingsbenchmark gebaseerd op het GPT-3 model in minder dan 11 minuten. 

Met andere woorden, het cluster trainde een GPT-3 equivalent model met ongeveer 175 miljard parameters in ongeveer dezelfde tijd die nodig is om koffie te zetten of de hond uit te laten. Hoewel we niet weten hoe lang OpenAI erover deed om GPT-3 te trainen, was het zeker geen 11 minuten. 

De H100 GPU's vestigden records in 8 andere MLPerf-tests en toonden hun ruwe kracht en veelzijdigheid. Hier zijn enkele van de resultaten: 

  • Groot taalmodel (GPT-3): 10,9 minuten
  • Natuurlijke taalverwerking (BERT): 0,13 minuten (8 seconden)
  • Aanbeveling (DLRMv2): 1.61 minuten
  • Objectdetectie, zwaargewicht (masker R-CNN): 1.47 minuten
  • Objectdetectie, lichtgewicht (RetinaNet): 1.51 minuten
  • Beeldclassificatie (ResNet-50 v1.5): 0,18 minuten (11 seconden)
  • Beeldsegmentatie (3D U-Net): 0,82 minuten (49 seconden)
  • Spraakherkenning (RNN-T): 1.65 minuten

In hun laatste benchmarkronde, genaamd v3.0, heeft MLPerf ook zijn test voor aanbevelingssystemen bijgewerkt. Dit zijn algoritmen die producten of diensten voorstellen aan gebruikers op basis van hun gedrag in het verleden. 

De nieuwe test maakt gebruik van een grotere dataset en een actueler AI-model om de uitdagingen waarmee serviceproviders te maken hebben beter na te bootsen. Nvidia is het enige bedrijf dat resultaten voor deze benchmark heeft ingediend.

MLPerf-benchmarking

MLCommons, een AI- en technologieconsortium, kondigde onlangs de nieuwste bevindingen van hun AI-benchmarkingtests aan.

De primaire benchmarkronde heette v3.0 en beoordeelt de efficiëntie van het trainen van modellen voor machinaal leren. Een andere ronde, genaamd Tiny v1.1, onderzoekt ML-toepassingen voor ultracompacte apparaten met een laag stroomverbruik.

Bij de MLPerf ronde v3.0 waren bedrijven betrokken als ASUSTek, Azure, Dell, Fujitsu, GIGABYTE, H3C, IEI, Intel & Habana Labs, Krai, Lenovo, NVIDIA, NVIDIA + CoreWeave, Quanta Cloud Technology, Supermicro en xFusion. 

Over het geheel genomen lieten de modellen prestatieverbeteringen zien tot 1,54x in de laatste 6 maanden of 33 tot 49x sinds de eerste ronde, v0.5in 2019, wat het tempo van de vooruitgang in machine-leersystemen illustreert.

Nvidia eiste de scalp van ronde v3.0 op dankzij hun ultra-high-end H100-chips, die ze waarschijnlijk voor de nabije toekomst zullen behouden.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden