Nvidias opdaterede "Superchip" lover enorme AI-fremskridt

10. august 2023

Nvidias CEO annoncerer opgradering af superchip

Nvidia afslørede en opdateret version af sin Grace Hopper Superchip (GH200), som de annoncerede for 2 måneder siden. GH200 blev designet til at drive datacentre til AI-behandling i stor skala.

GH200 er ikke gået i serieproduktion endnu, men den har allerede haft en større opgradering i sin hukommelse. Den hemmelige sauce i disse nye chips er den opgraderede hukommelse med høj båndbredde kaldet HBM3e, som er i stand til at få adgang til data med 5 TB/s.

Det er en forbedring på 50% i forhold til HBM3-hukommelsen i den chip, der blev annonceret i slutningen af maj.

Nvidia har forbundet denne højhastighedshukommelse med kraftige CPU'er og GPU'er på den samme enhed. Den resulterende stigning i behandlingshastighed vil dramatisk forbedre den AI-behandlingsevne, som de nuværende datacentre har.

Ud over den opdaterede chip annoncerede Nvidia også GH200 Grace Hopper-platformen, som gør det muligt at forbinde to GH200-chips på et enkelt kort.

Platformen leverer otte petaflops AI-behandling og 282 GB HBM3e-hukommelse med en båndbredde på 10 TB/s.

 

Hvordan vil Nvidias chip ændre datacentrene?

Tallene kan være lidt svære at forstå. Så hvor stor en ting er denne nye chip og platform?

I sin præsentation brugte Nvidias CEO Jensen Huang et eksempel på et typisk datacenter med 8800 x86-processorer, der udfører en række forskellige databehandlingsfunktioner (ISO-budget). 

Et datacenter som dette, der kører Llama 2 til inferens, med en vektor-database, der forespørges, og SDXL, der genererer output, vil koste dig omkring $100m og bruge 5MW strøm.

Et $100m-datacenter med 2500 GH200-platforme kunne køre de samme modeller 12 gange hurtigere og ville kun bruge 3 MW strøm.

Hvis et datacenter var fokuseret på et meget specifikt sæt opgaver (ISO-workload), bliver sammenligningen endnu mere svimlende. 

Du skal kun bruge $8m på 210 GH200-enheder, der bruger 20 gange mindre energi for at matche datacenterydelsen på $100m. 

Det er overflødigt at sige, at alle AI cloud computing-datacentre, der var i planlægningsfasen før denne udgivelse, skal tilbage til tegnebrættet.

GH200-chippene kommer på markedet i 2. kvartal 2024 og forventes at æde sig ind på en stor del af x86-processorforretningen. AMD's nye MI300-chip er Nvidias nærmeste rival, men dens større hukommelsesfordel ser ud til at blive udhulet af opgraderingen i den nye GH200.

De fremskridt, vi ser inden for processorteknologi, overgår alt. Moores lov og viser ingen tegn på afmatning. Generative AI-applikationer leverer allerede en imponerende ydeevne, men det ser ud til, at de bliver meget hurtigere.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser