Nvidias uppdaterade "Superchip" utlovar enorma AI-framsteg

10 augusti 2023

Nvidias VD tillkännager uppgradering av superchip

Nvidia presenterade en uppdaterad version av sitt Grace Hopper Superchip (GH200) som de tillkännagav för 2 månader sedan. GH200 var utformad för att driva datacenter för storskalig AI-bearbetning.

GH200 har ännu inte börjat serieproduceras, men den har redan haft en större uppgradering i sitt minne. Den hemliga såsen i dessa nya chip är det uppgraderade minnet med hög bandbredd, kallat HBM3e, som kan komma åt data med 5 TB/s.

Detta innebär en förbättring med 50% jämfört med HBM3-minnet i det chip som presenterades i slutet av maj.

Nvidia anslöt detta höghastighetsminne till kraftfulla CPU:er och GPU:er på samma enhet. Den resulterande ökningen i bearbetningshastighet kommer att dramatiskt förbättra den AI-bearbetningsförmåga som nuvarande datacenter har.

Förutom det uppdaterade chippet tillkännagav Nvidia också GH200 Grace Hopper-plattformen som gör det möjligt att ansluta två GH200-chipp på ett enda kort.

Plattformen levererar åtta petaflops AI-processering och 282 GB HBM3e-minne med en bandbredd på 10 TB/s.

 

Hur kommer Nvidias chip att förändra datacenters?

Siffrorna kan vara lite svåra att få grepp om. Så hur stor affär är detta nya chip och denna nya plattform?

I sin presentation använde Nvidias VD Jensen Huang exemplet med ett typiskt datacenter som kör 8800 x86-processorer som utför en mängd olika beräkningsfunktioner (ISO-budget). 

Ett sådant datacenter som kör Llama 2 för inferens, med en vektordatabas som tillfrågas och SDXL som genererar utdata skulle kosta dig cirka $100 miljoner och använda 5 MW ström.

Ett datacenter på $100m med 2500 GH200-plattformar skulle kunna köra samma modeller 12 gånger snabbare och bara använda 3 MW ström.

Om ett datacenter var inriktat på en mycket specifik uppsättning uppgifter (ISO-arbetsbelastning) blir jämförelsen ännu mer häpnadsväckande. 

Du skulle bara behöva spendera $8m för 210 GH200-enheter som bränner 20 gånger mindre energi för att matcha datacenterprestanda på $100m. 

Det behöver inte sägas att alla datacenter för AI cloud computing som befann sig i planeringsfasen före den här utgåvan kommer att gå tillbaka till ritbordet.

GH200-chipen kommer att rullas ut under Q2 2024 och förväntas äta upp en hel del av x86-processorverksamheten. AMD:s nya MI300-chip är Nvidias närmaste rival, men dess fördel i form av större minne verkar eroderas av uppgraderingen i nya GH200.

Den utveckling av processortekniken som vi ser är överlägsen Moores lag och visar inga tecken på att sakta ner. Generativa AI-applikationer levererar redan imponerande prestanda, men det ser ut som om de kommer att bli mycket snabbare.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar