NVIDIA's nye H100 GPU'er har sat nye benchmarks for AI-træningsopgaver og slået flere rekorder i processen.
MLPerf blev grundlagt af et konsortium af forskere, akademikere og andre specialister, der byggede benchmarks for at teste, hvor hurtigt systemer kan implementere og køre AI-modeller. I bund og grund er MLPerf en række tests, der er designet til at måle hastigheden og effektiviteten af hardware, software og tjenester til maskinlæring (ML).
Nvidia, verdens førende inden for AI-hardware, testede en klynge af 3.584 H100 GPU'er for at vise deres formidable hurtighed.
Klyngen, der er udviklet i fællesskab af AI-startup'en Inflection AI og administreres af CoreWeave, en cloud-tjenesteudbyder med speciale i GPU-baserede arbejdsbelastninger, gennemførte et træningsbenchmark baseret på GPT-3-modellen på mindre end 11 minutter.
Med andre ord trænede klyngen en GPT-3-ækvivalent model med omkring 175 mia. parametre på omtrent samme tid, som det tager at brygge en kop kaffe eller gå tur med hunden. Vi ved ikke, hvor lang tid det tog OpenAI at træne GPT-3, men det var i hvert fald ikke 11 minutter.
H100 GPU'erne satte rekorder på tværs af 8 andre MLPerf-tests og viste deres råstyrke og alsidighed. Her er nogle af resultaterne:
- Stor sprogmodel (GPT-3): 10,9 minutter
- Behandling af naturligt sprog (BERT): 0,13 minutter (8 sekunder)
- Anbefaling (DLRMv2): 1.61 minutter
- Objektdetektering, sværvægt (maske R-CNN): 1.47 minutter
- Objektregistrering, letvægts (RetinaNet): 1.51 minutter
- Klassificering af billeder (ResNet-50 v1.5): 0,18 minutter (11 sekunder)
- Billedsegmentering (3D U-Net): 0,82 minutter (49 sekunder)
- Talegenkendelse (RNN-T): 1.65 minutter
I deres seneste runde af benchmarking, kaldet v3.0, opdaterede MLPerf også sin test for anbefalingssystemer, som er algoritmer, der foreslår produkter eller tjenester til brugere baseret på deres tidligere adfærd.
Den nye test bruger et større datasæt og en mere aktuel AI-model for bedre at kunne efterligne de udfordringer, som tjenesteudbydere står over for. Nvidia er den eneste virksomhed, der har indsendt resultater på dette benchmark.
MLPerf-benchmarking
MLCommonset AI- og teknologikonsortium, offentliggjorde for nylig de nyeste resultater fra deres AI-benchmarking-tests.
Den primære benchmarkrunde blev kaldt v3.0, som vurderer effektiviteten af træning af maskinlæringsmodeller. En anden runde, kaldet Tiny v1.1, undersøger ML-applikationer til ultrakompakte enheder med lavt strømforbrug.
MLPerf-runden v3.0 havde deltagelse af virksomheder som ASUSTek, Azure, Dell, Fujitsu, GIGABYTE, H3C, IEI, Intel & Habana Labs, Krai, Lenovo, NVIDIA, NVIDIA + CoreWeave, Quanta Cloud Technology, Supermicro og xFusion.
Samlet set viste modellerne præstationsforbedringer på op til 1,54 gange i løbet af de sidste 6 måneder eller 33 til 49 gange siden første runde, v0.5i 2019, hvilket illustrerer tempoet i udviklingen af maskinlæringssystemer.
Nvidia vandt runden v3.0 takket være deres ultra-high-end H100-chips, som de sandsynligvis vil beholde i en overskuelig fremtid.