AMD riktar in sig på Nvidia med ett nytt AI-chip, Instinct MI325X GPU

4 juni 2024

AMD meddelade att deras MI325X GPU skulle lanseras senare i år och att den slår NVIDIAs H200 GPU på flera fronter.

NVIDIA är den nuvarande ledaren inom försäljning av chip för datacenter och beräknas ha över 70% av marknadsandelen för AI-chip, men Intel och AMD gör framsteg med sina egna erbjudanden.

På Taiwans Computex 2024-event meddelade AMD:s VD Lisa Su att Instinct MI325X GPU kommer att släppas senare i år. AMD säger att efterföljaren till MI300 kommer att ha mer minne och snabbare dataflöde.

AMD får allt större genomslag för sina datacenterchip, med företag som Microsoft som införlivar dem i sina Azure-molntjänster medan Microsoft, Meta och Oracle alla har antagit MI300-plattformen. Företaget siktar på en försäljning på $4b för 2024.

Su säger att MI325X är betydligt bättre än NVIDIAs populära H200 GPU när det gäller minneskapacitet, bandbredd och prestanda.

MI325X har upp till 288 GB HBM3e-minne och en bandbredd på 6 TBps. Det är mer än dubbelt så mycket minne som NVIDIAs H200 har med 30% snabbare dataflöde.

Den uppnår 2,6 petaflops maximal teoretisk genomströmning för 8-bitars flyttal (FP8) och 1,3 petaflops med 16-bitars flyttal (FP16). Det är 30% högre än H200.

En enda server med åtta av dessa GPU:er kombinerade på Instinct MI325X-plattformen har tillräckligt med minne för att köra avancerade AI-modeller med upp till 1 biljon parametrar, vilket är dubbelt så mycket som en H200-server klarar av.

Medan NVIDIA:s H200 är dess flaggskepps-GPU som för närvarande är tillgänglig, nämnde Su inte hur MI325X skulle stå sig mot Blackwell GPU:er NVIDIA kommer att börja leverera senare i år.

Blackwells toppmodeller kommer att ha upp till 192 GB HBM3e-minne med en bandbredd på 8 TB/s. Det är en hel del mindre minne men mer bandbredd än AMD: s bästa erbjudande.

AMD säger att de kommer att öka utvecklingen av nya GPU:er med en ny familj av GPU:er som förväntas lanseras varje år. Det är den samma takt som NVIDIA:s VD Jensen Huang sa att NVIDIA siktar på.

År 2050 kommer AMD att lansera MI350 som kommer att använda en 3nm-process och använda AMD:s CDNA 4-arkitektur.

Su säger att CDNA 4-arkitekturen kommer att innebära ett generationssprång inom AI-beräkningar och kommer att ge 35 gånger högre inferensprestanda jämfört med den nuvarande CDNA 3-arkitekturen.

För att flytta alla dessa data mellan GPU-kluster och servrar krävs höghastighetsnätverk. Su avslutade sitt anförande med att säga att "framtiden för AI-nätverk måste vara öppen".

Hon meddelade att AMD förra veckan gick med i ett konsortium av företag som sysslar med avancerade datorsystem i syfte att utveckla en nätverksstandard med hög bandbredd och låg latens för att ansluta hundratals AI-acceleratorer.

NVIDIA bjöds inte in att delta i projektet och har sin egen standard. Su sa att UALink-standarden kommer att vara ett "bra alternativ till proprietära alternativ".

Stridslinjerna för AI GPU:er har dragits upp med mycket liten subtilitet och NVIDIA måste börja känna av hettan från AMD och Intel.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar