AMD retter seg mot Nvidia med en ny AI-chip, Instinct MI325X GPU

4. juni 2024

AMD kunngjorde at MI325X GPU-en ville bli lansert senere i år, og at den slår NVIDIAs H200 GPU-er på flere fronter.

NVIDIA er for tiden ledende innen salg av datasenterbrikker, og anslås å ha over 70% av markedsandelen for AI-brikker, men Intel og AMD gjør store fremskritt med sine egne tilbud.

På Taiwans Computex 2024-arrangement kunngjorde AMDs administrerende direktør Lisa Su at Instinct MI325X GPU vil bli utgitt senere i år. AMD sier at etterfølgeren til MI300 vil ha mer minne og raskere datagjennomstrømning.

AMDs datasenterbrikker får stadig større utbredelse, og selskaper som Microsoft har tatt dem i bruk i sine Azure-skytjenester, mens Microsoft, Meta og Oracle alle har tatt i bruk MI300-plattformen. Selskapet har som mål å omsette for $4b i 2024.

Su sa at MI325X utkonkurrerer NVIDIAs populære H200 GPU betydelig når det gjelder minnekapasitet, båndbredde og ytelse.

MI325X har opptil 288 GB HBM3e-minne og 6 TBps båndbredde. Det er mer enn dobbelt så mye minne som NVIDIAs H200 har, med 30% raskere datagjennomstrømning.

Den oppnår 2,6 petaflops teoretisk toppgjennomstrømning for 8-bits flyttall (FP8), og 1,3 petaflops med 16-bits flyttall (FP16). Det er 30% høyere enn H200.

En enkelt server som består av åtte av disse GPU-ene kombinert på Instinct MI325X-plattformen, vil ha nok minne til å kjøre avanserte AI-modeller med opptil 1 billion parametere, dobbelt så mye som en H200-server.

Mens NVIDIAs H200 er deres flaggskip-GPU som for øyeblikket er tilgjengelig, nevnte Su ikke hvordan MI325X ville stå seg mot Blackwell GPUer NVIDIA vil begynne å levere senere i år.

Toppmodellene av Blackwell vil ha opptil 192 GB HBM3e-minne med 8 TB/s båndbredde. Det er en god del mindre minne, men mer båndbredde enn AMDs topptilbud.

AMD sier at de vil øke utviklingen av nye GPUer med en ny familie av GPUer som forventes å bli lansert hvert år. Det er samme rytme som NVIDIAs administrerende direktør Jensen Huang sa at NVIDIA sikter mot.

I 2050 vil AMD lansere MI350, som vil bruke en 3 nm-prosess og bruke AMDs CDNA 4-arkitektur.

Su sier at CDNA 4-arkitekturen vil være et generasjonssprang innen AI-databehandling, og at den vil gi 35 ganger høyere ytelse enn den nåværende CDNA 3-arkitekturen.

For å flytte alle disse dataene mellom GPU-klynger og servere trengs det høyhastighetsnettverk. Su avsluttet talen sin med å si at "fremtiden for AI-nettverk må være åpen".

Hun kunngjorde at AMD i forrige uke ble med i et konsortium av selskaper som driver med avansert databehandling, med mål om å utvikle en nettverksstandard med høy båndbredde og lav forsinkelse for å koble sammen hundrevis av AI-akseleratorer.

NVIDIA ble ikke invitert til å delta i prosjektet og har sin egen proprietære standard. Su sa at UALink-standarden vil være et "flott alternativ til proprietære alternativer".

AI GPU-kamplinjene har blitt trukket opp med svært lite subtilitet, og NVIDIA må begynne å føle varmen fra AMD og Intel.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser