Verdens teknologivirksomheder er sultne efter avancerede GPU-chips, og producenterne kan tilsyneladende ikke producere nok til at imødekomme efterspørgslen.
Bag enhver højt profileret AI-model står en legion af GPU'er, der arbejder utrætteligt - og selv branchens A-liste-spillere kan ikke få nok af dem.
Træning af AI-modeller kræver enorme computerressourcer, men producenterne er relativt få, og avancerede GPU'er er ikke noget, man kan lave fra den ene dag til den anden. Langt størstedelen af efterspørgslen er faldet på brancheveteranen Nvidias skuldre, hvilket har skubbet virksomhedens markedsværdi op på $1tn i år.
Lige nu synes kun få at være i sikkerhed for GPU-manglen - og jo længere væk fra Nvidia du er, jo mindre er dine chancer for at få fat i dem.
I maj sagde OpenAI's CEO Sam Altman til det amerikanske senat: "Vi har så få GPU'er, at jo færre mennesker, der bruger værktøjet, jo bedre."
En nylig nedgang i GPT-4's ydeevne fik mange til at spekulere på, om OpenAI ikke var i stand til at imødekomme efterspørgslen, hvilket tvang dem til at ændre og tilpasse aspekter af deres modeller.
I mellemtiden har GPU-manglen i Kina skabt en temmelig bizart sort marked hvor forretningskøbere er nødt til at indgå lyssky aftaler om Nvidias A100- og H100-chips på etagerne i SEG-skyskraberen i Shenzhen - et cyberpunk-agtigt scenarie, der er taget direkte ud af et Deus Ex-videospil.
Microsofts årsberetning fremhævede for nylig den langvarige mangel på AI-chips som en potentiel risikofaktor for investorer.
I rapporten står der: "Vi fortsætter med at identificere og evaluere muligheder for at udvide vores datacentre og øge vores serverkapacitet for at imødekomme vores kunders skiftende behov, især i lyset af den stigende efterspørgsel efter AI-tjenester."
Det fortsætter: "Vores datacentre er afhængige af tilgængeligheden af tilladt og bygbar jord, forudsigelig energi, netværksforsyninger og servere, herunder grafikprocessorenheder ('GPU'er') og andre komponenter."
Den umættelige appetit på GPU'er
Computerkraft er en væsentlig flaskehals for AI-udvikling, men kun få har forudset en efterspørgsel i denne størrelsesorden.
Hvis denne efterspørgsel var forudsigelig, ville der være flere producenter af AI-chips end Nvidia og en håndfuld nystartede virksomheder, hvor Nvidia ifølge nogle skøn kontrollerer mindst 84% af markedet. AMD og Intel er kun lige kommet ind i kampen.
Raj Joshi, senior vice president hos Moody's Investors Service, sagde: "Ingen kunne have forudset, hvor hurtigt eller hvor meget efterspørgslen ville stige," "Jeg tror ikke, at industrien var klar til denne form for stigning i efterspørgslen."
I sit indtjeningsopkald i maj meddelte Nvidia, at de havde "anskaffet et væsentligt højere udbud i anden halvdel af året" for at imødekomme den stigende efterspørgsel efter AI-chips.
I mellemtiden sagde AMD, at de er klar til at afsløre deres svar på Nvidias AI-GPU'er hen mod slutningen af året. "Der er en meget stærk kundeinteresse over hele linjen for vores AI-løsninger," sagde AMD's administrerende direktør Lisa Su.
Nogle brancheeksperter mener, at chipmanglen kan blive mindre om to til tre år, når Nvidias konkurrenter udvider deres tilbud. Flere nystartede virksomheder arbejder nu dag og nat på at tilslutte sig denne eksplosive efterspørgsel.
Alle virksomheder, der er i stand til at fremstille avancerede chips, der egner sig til AI-arbejdsopgaver, vil klare sig godt, men det er en sjælden kategori, da GPU'er er usædvanligt langvarige at forske i og bygge.
AI skal blive slankere
Relativt nystartede AI-udviklere som Inflection har travlt med at bygge kolossale træningsstakke.
Efter at have rejst en mægtig $1,3 mia.Inflection har planer om at samle en GPU-klynge med 22.000 high-end H100-chips.
Til sammenligning har Nvidia i samarbejde med CoreWeave for nylig smadrede benchmarks for AI-træning med en klynge på 3.584 chips - inklusive træning af en stor sprogmodel (LLM) som GPT-3.5 på ca. 10 minutter.
Mens jagten på magt blandt AI's førende spillere drejer sig om at stable GPU'er i det, der begynder at ligne en feudal landhandel, fokuserer andre på at slanke AI-modeller for at få mere ud af den nuværende teknologi.
For eksempel har udviklere i open source-fællesskabet for nylig fundet måder at køre LLM'er på kompakte enheder som MacBooks.
"Nødvendighed er opfindelsens moder, ikke sandt?" Sid Sheth, grundlægger og CEO af AI-startup'en d-Matrix fortalte CNN. "Så nu, hvor folk ikke har adgang til ubegrænsede mængder computerkraft, finder de på opfindsomme måder at bruge det, de har, på en meget smartere måde."
Desuden er manglen på GPU'er en god nyhed for dem, der ønsker, at AI-udviklingen skal gå langsommere - har teknologien virkelig brug for at bevæge sig hurtigere, end den allerede gør?
Sandsynligvis ikke. Som Sheth udtrykker det: "Netto bliver det en forklædt velsignelse."