Le aziende tecnologiche di tutto il mondo sono affamate di chip GPU di fascia alta e i produttori non riescono a produrre abbastanza per soddisfare la domanda.
Dietro ogni modello di IA di alto profilo c'è una legione di GPU che lavora senza sosta, e anche i protagonisti del settore non ne hanno mai abbastanza.
L'addestramento di modelli di intelligenza artificiale richiede immense risorse di calcolo, ma i produttori sono relativamente scarsi e le GPU di fascia alta non sono qualcosa che si può ottenere da un giorno all'altro. La maggior parte della domanda è ricaduta sulle spalle del veterano del settore Nvidia, che quest'anno ha spinto il suo market cap a $1tn.
Al momento, pochi sembrano al sicuro dalla carenza di GPU. - e più si è lontani da Nvidia, minori sono le possibilità di ottenerli.
A maggio, il CEO di OpenAI Sam Altman ha dichiarato al Senato degli Stati Uniti: "Siamo così a corto di GPU che meno persone usano lo strumento, meglio è".
Un recente declino delle prestazioni del GPT-4 ha portato molti a ipotizzare che OpenAI non fosse in grado di soddisfare la domanda, costringendoli a modificare e mettere a punto alcuni aspetti dei loro modelli.
Nel frattempo, in Cina, la carenza di GPU ha creato una mercato nero piuttosto bizzarro in cui gli acquirenti di aziende devono concludere loschi affari per i chip A100 e H100 di Nvidia sui piani del grattacielo SEG di Shenzhen - uno scenario cyberpunk direttamente tratto da un videogioco di Deus Ex.
Microsoft rapporto annuale ha recentemente evidenziato la prolungata carenza di chip AI come un potenziale fattore di rischio per gli investitori.
Nel rapporto si legge: "Continuiamo a identificare e valutare opportunità per espandere le nostre sedi di datacenter e aumentare la nostra capacità di server per soddisfare le esigenze in evoluzione dei nostri clienti, in particolare data la crescente domanda di servizi di intelligenza artificiale".
E continua: "I nostri data center dipendono dalla disponibilità di terreni autorizzati e edificabili, di energia prevedibile, di forniture di rete e di server, comprese le unità di elaborazione grafica ('GPU') e altri componenti".
L'insaziabile appetito per le GPU
La potenza di calcolo è un collo di bottiglia significativo per lo sviluppo dell'IA, ma pochi hanno previsto una domanda di questa portata.
Se questo livello di domanda fosse prevedibile, ci sarebbero più produttori di chip per l'intelligenza artificiale che Nvidia e una manciata di startup, con Nvidia che, secondo alcune stime, controlla almeno 84% del mercato. AMD e Intel sono appena entrate in gioco.
Raj Joshi, vicepresidente senior di Moody's Investors Service, ha dichiarato: "Nessuno avrebbe potuto prevedere la velocità o l'entità dell'aumento della domanda", "non credo che il settore fosse pronto per questo tipo di impennata".
Nella sua conferenza stampa di maggio, Nvidia ha annunciato di essersi "procurata una fornitura sostanzialmente superiore per la seconda metà dell'anno" per soddisfare la crescente domanda di chip AI.
AMD, nel frattempo, ha dichiarato di essere pronta a presentare la sua risposta alle GPU AI di Nvidia verso la fine dell'anno. "C'è un forte interesse da parte dei clienti per le nostre soluzioni AI", ha dichiarato AMD. ha dichiarato il CEO di AMD Lisa Su.
Secondo alcuni esperti del settore, la carenza di chip potrebbe attenuarsi nel giro di due o tre anni, man mano che i concorrenti di Nvidia amplieranno la loro offerta. Diverse start-up stanno lavorando giorno e notte per di questa domanda esplosiva.
Tutte le aziende in grado di produrre chip di fascia alta adatti ai carichi di lavoro dell'intelligenza artificiale avranno successo, ma si tratta di una categoria rara, in quanto le GPU sono eccezionalmente lunghe da ricercare e costruire.
L'IA deve diventare più snella
Sviluppatori di IA relativamente freschi come Inflection si stanno affrettando a costruire colossali stack di formazione.
Dopo aver sollevato un potente $1,3mldInflection prevede di assemblare un cluster di GPU composto da 22.000 chip H100 di fascia alta.
A titolo di esempio, Nvidia, in collaborazione con CoreWeave, ha recentemente ha distrutto i parametri di addestramento dell'intelligenza artificiale con un cluster di 3.584 chip - compreso l'addestramento di un modello linguistico di grandi dimensioni (LLM) come GPT-3.5 in circa 10 minuti.
Mentre la ricerca del potere tra i principali protagonisti dell'IA ruota attorno all'accatastamento delle GPU in quella che inizia a sembrare una presa di possesso feudale, altri si stanno concentrando sull'affinamento dei modelli di IA per ottenere un maggior rendimento dalla tecnologia attuale.
Ad esempio, gli sviluppatori della comunità open-source hanno recentemente trovato il modo di eseguire gli LLM su dispositivi compatti come i MacBook.
"La necessità è la madre dell'invenzione, giusto?". Sid Sheth, fondatore e CEO della startup di intelligenza artificiale d-Matrix ha dichiarato alla CNN. "Ora che le persone non hanno accesso a quantità illimitate di potenza di calcolo, stanno trovando modi ingegnosi per utilizzare ciò che hanno in modo molto più intelligente".
Inoltre, la carenza di GPU è una notizia gradita a coloro che desiderano che lo sviluppo dell'IA rallenti: la tecnologia ha davvero bisogno di muoversi più velocemente di quanto non stia già facendo?
Probabilmente no. Come dice Sheth, "in rete, questa sarà una benedizione sotto mentite spoglie".