AMD går efter Nvidia med en ny AI-chip, Instinct MI325X GPU

4. juni 2024

AMD annoncerede, at deres MI325X GPU ville blive udgivet senere på året, og at den slår NVIDIAs H200 GPU'er på flere fronter.

NVIDIA er den nuværende leder inden for salg af datacenterchips og anslås at have over 70% af markedsandelen for AI-chips, men Intel og AMD gør fremskridt med deres egne tilbud.

På Taiwans Computex 2024-event annoncerede AMD's CEO Lisa Su, at Instinct MI325X GPU'en ville blive frigivet senere i år. AMD siger, at efterfølgeren til MI300 vil have mere hukommelse og hurtigere datagennemstrømning.

AMD vinder større indpas med sine datacenterchips, og virksomheder som Microsoft indarbejder dem i deres Azure-cloudtjenester, mens Microsoft, Meta og Oracle alle har taget MI300-platformen i brug. Virksomheden sigter mod et salg på $4b i 2024.

Su sagde, at MI325X overgår NVIDIA's populære H200 GPU betydeligt i hukommelseskapacitet, båndbredde og ydeevne.

MI325X har op til 288 GB HBM3e-hukommelse og 6 TBps båndbredde. Det er mere end dobbelt så meget hukommelse som NVIDIAs H200 har med 30% hurtigere datagennemstrømning.

Den opnår 2,6 petaflops teoretisk peak throughput for 8-bit floating point (FP8) og 1,3 petaflops med 16-bit floating point (FP16). Det er 30% højere end H200.

En enkelt server bestående af otte af disse GPU'er kombineret på Instinct MI325X-platformen vil have nok hukommelse til at køre avancerede AI-modeller med op til 1 billion parametre, hvilket er dobbelt så meget som en H200-server.

Mens NVIDIA's H200 er dens flagskibs-GPU, der er tilgængelig i øjeblikket, nævnte Su ikke, hvordan MI325X ville klare sig i forhold til Blackwell GPU'er, som NVIDIA vil begynde at levere senere i år.

Blackwell-topmodellerne vil have op til 192 GB HBM3e-hukommelse med 8 TB/s båndbredde. Det er en hel del mindre hukommelse, men mere båndbredde end AMD's toptilbud.

AMD siger, at de vil øge udviklingen af nye GPU'er med en ny familie af GPU'er, der forventes at blive udgivet hvert år. Det er den Samme rytme som NVIDIAs CEO Jensen Huang sagde, at NVIDIA sigter efter.

I 2050 vil AMD frigive MI350, som vil bruge en 3nm-proces og bruge AMD's CDNA 4-arkitektur.

Su siger, at CDNA 4-arkitekturen vil være et generationsspring inden for AI-computing, som vil give en 35 gange højere inferensydelse end den nuværende CDNA 3-arkitektur.

At flytte alle disse data mellem GPU-klynger og servere kræver højhastighedsnetværk. Su afsluttede sin tale med at sige, at "fremtiden for AI-netværk skal være åben."

Hun meddelte, at AMD i sidste uge sluttede sig til et konsortium af high computing-virksomheder med det formål at udvikle en netværksstandard med høj båndbredde og lav latenstid til at forbinde hundredvis af AI-acceleratorer.

NVIDIA blev ikke inviteret til at deltage i projektet og har sin egen proprietære standard. Su sagde, at UALink-standarden vil være et "godt alternativ til proprietære muligheder."

AI GPU-kamplinjerne er blevet trukket op med meget lidt subtilitet, og NVIDIA må begynde at føle varmen fra AMD og Intel.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser