Nvidias oppdaterte "Superchip" lover enorme fremskritt innen AI

10. august 2023

Nvidia-sjef kunngjør oppgradering av superchip

Nvidia avduket en oppdatert versjon av sin Grace Hopper Superchip (GH200) som ble annonsert for to måneder siden. GH200 ble designet for å drive datasentre for storskala AI-prosessering.

GH200 har ikke gått i serieproduksjon ennå, men den har allerede hatt en større oppgradering i minnet. Den hemmelige sausen i disse nye brikkene er det oppgraderte minnet med høy båndbredde, kalt HBM3e, som er i stand til å få tilgang til data med en hastighet på 5 TB/s.

Dette representerer en forbedring på 50% i forhold til HBM3-minnet i brikken som ble annonsert i slutten av mai.

Nvidia koblet dette høyhastighetsminnet til kraftige CPU-er og GPU-er på samme enhet. Den resulterende økningen i prosesseringshastighet vil dramatisk forbedre AI-prosesseringsevnen som dagens datasentre har.

I tillegg til den oppdaterte brikken kunngjorde Nvidia også GH200 Grace Hopper-plattformen, som gjør det mulig å koble sammen to GH200-brikker på ett enkelt kort.

Plattformen leverer åtte petaflops med AI-prosessering og 282 GB HBM3e-minne med en båndbredde på 10 TB/s.

 

Hvordan vil Nvidias chip endre datasentrene?

Tallene kan være litt vanskelige å forstå. Så hvor viktig er denne nye brikken og plattformen?

I sin presentasjon brukte Nvidia-sjef Jensen Huang et eksempel på et typisk datasenter med 8800 x86-prosessorer som utfører en rekke ulike databehandlingsfunksjoner (ISO-budsjett). 

Et datasenter som dette som kjører Llama 2 for inferens, med en vektordatabase som blir forespurt og SDXL som genererer utdataene, vil koste deg rundt $100m og bruke 5MW strøm.

Et $100m datasenter som bruker 2500 GH200-plattformer, kan kjøre de samme modellene 12 ganger raskere og vil bare bruke 3 MW strøm.

Hvis et datasenter var fokusert på et svært spesifikt sett med oppgaver (ISO-arbeidsbelastning), blir sammenligningen enda mer overveldende. 

Du trenger bare å bruke $8m for 210 GH200-enheter som bruker 20 ganger mindre energi for å oppnå samme ytelse som et datasenter med $100m. 

Det sier seg selv at alle datasentre for AI-databehandling i skyen som var i planleggingsfasen før denne lanseringen, må tilbake til tegnebrettet.

GH200-brikkene lanseres i 2. kvartal 2024 og forventes å spise opp mye av x86-prosessorvirksomheten. AMDs nye MI300-brikke er Nvidias nærmeste rival, men den større minnefordelen ser ut til å bli uthulet av oppgraderingen i den nye GH200.

Utviklingen innen prosessorteknologi som vi ser, overgår Moores lov og viser ingen tegn til å avta. Generative AI-applikasjoner leverer allerede imponerende ytelse, men det ser ut til at de er i ferd med å bli mye raskere.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser