O "Superchip" atualizado da Nvidia promete enormes avanços na IA

10 de agosto de 2023

CEO da Nvidia anuncia atualização de superchip

A Nvidia revelou uma versão atualizada de seu Grace Hopper Superchip (GH200) que anunciou há 2 meses. O GH200 foi concebido para alimentar centros de dados para processamento de IA em grande escala.

O GH200 ainda não entrou em produção em série, mas já teve um grande atualização na sua memória. O ingrediente secreto destes novos chips é a memória de alta largura de banda actualizada chamada HBM3e, que é capaz de aceder a dados a 5 TB/s.

Isto representa uma melhoria de 50% em relação à memória HBM3 no chip que foi anunciado no final de maio.

A Nvidia ligou esta memória de alta velocidade a CPUs e GPUs potentes no mesmo dispositivo. O aumento resultante na velocidade de processamento irá melhorar drasticamente a capacidade de processamento de IA dos actuais centros de dados.

Para além do chip atualizado, a Nvidia anunciou também a plataforma GH200 Grace Hopper, que permite ligar 2 dos chips GH200 numa única placa.

A plataforma oferece oito petaflops de processamento de IA e 282GB de memória HBM3e com uma largura de banda de 10TB/s.

 

Como é que o chip da Nvidia vai mudar os centros de dados?

Os números podem ser um pouco difíceis de compreender. Então, qual é a importância deste novo chip e desta nova plataforma?

Na sua apresentação, o Diretor Executivo da Nvidia, Jensen Huang, utilizou o exemplo de um centro de dados típico com 8800 processadores x86 que executam uma variedade de funções de computação (orçamento ISO). 

Um centro de dados como este, que utilize o Llama 2 para inferência, com uma base de dados vetorial a ser consultada e o SDXL a gerar os resultados, custaria cerca de $100m e consumiria 5MW de energia.

Um centro de dados $100m utilizando 2500 plataformas GH200 poderia executar os mesmos modelos 12 vezes mais rapidamente e utilizaria apenas 3MW de energia.

Se um centro de dados se concentrar num conjunto muito específico de tarefas (carga de trabalho ISO), a comparação torna-se ainda mais surpreendente. 

Só precisaria de gastar $8m para 210 dispositivos GH200 que gastam 20 vezes menos energia para igualar o desempenho de um centro de dados de $100m. 

Escusado será dizer que todos os centros de dados de computação em nuvem com IA que estavam em fase de planeamento antes deste lançamento vão voltar à prancheta de desenho.

Os chips GH200 serão lançados no segundo trimestre de 2024 e espera-se que venham a consumir uma grande parte do negócio dos processadores x86. O novo chip MI300 da AMD é o rival mais próximo da Nvidia, mas a sua maior vantagem em termos de memória parece estar a ser corroída pela atualização do novo GH200.

O avanço na tecnologia de processadores que estamos a ver está a exceder Lei de Moore e não mostra sinais de abrandamento. As aplicações de IA generativa já estão a apresentar um desempenho impressionante, mas parece que estão prestes a ficar muito mais rápidas.

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Eugene van der Watt

Eugene vem de uma formação em engenharia eletrónica e adora tudo o que é tecnologia. Quando faz uma pausa no consumo de notícias sobre IA, pode encontrá-lo à mesa de snooker.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições