banner
Lar / Notícias / MGX: Nvidia padroniza multi
Notícias

MGX: Nvidia padroniza multi

Aug 09, 2023Aug 09, 2023

Atualizado com mais especificações MGX:Sempre que um fabricante de mecanismos de computação também faz placas-mãe e projetos de sistemas, as empresas que fabricam placas-mãe (há dezenas que o fazem) e criam projetos de sistemas (os fabricantes de design originais e o original - ficam um pouco nervosos e também um pouco aliviados A padronização dos componentes significa que há menos para eles fazerem, mas, ao mesmo tempo, há menos para eles cobrarem.

Com seus designs de plataforma de servidor multigeracional MGX, anunciados esta semana na feira Computex em Taiwan, que é um dos principais centros mundiais de fabricação de componentes e sistemas, bem como o centro indiscutível de fabricação e montagem de mecanismos de computação, a Nvidia espera tornar a vida mais fácil para si e para os OEMs e ODMs do mundo e proporcionar melhores lucros para si e para eles.

A Nvidia fabrica seus próprios servidores desde que o sistema DGX-1 estreou em abril de 2016 com base no acelerador de GPU "Pascal" P100. A Nvidia decidiu fazer isso para ajudar a acelerar o tempo de lançamento no mercado e criar um ciclo de feedback nos designs de componentes e placas-mãe; o fato de que a Nvidia precisava construir seus próprios supercomputadores para executar suas enormes cargas de trabalho de IA – o que era mais barato do que ter um OEM ou ODM fazendo isso – também foi um fator que contribuiu para a decisão. Na época, a maioria das GPUs Pascal que a Nvidia poderia ter fabricado era enviada para os hyperscalers e construtores de nuvem, bem como para alguns centros de HPC, e os DGX-1s estavam sendo vendidos pela Nvidia de maneira preferencial para que pesquisadores e cientistas pudessem obter suas mãos nesses sistemas acelerados por GPU. Este ainda era o caso em maio de 2017, quando as máquinas DGX-1 foram atualizadas com os aceleradores de GPU "Volta" V100 anunciados dois meses antes. O sistema DGX-A100 foi lançado em maio de 2020, usando as GPUs "Ampere" A100 e, claro, o design DGX-H100, que se expande muito mais com uma malha NVLink Switch, lançada simultaneamente com o acelerador GPU "Hopper" H100 ano passado e foi atualizado esta semana com um design híbrido de CPU-GPU no sistema DGX-GH200.

Você não pode comprar um H100 SXM5 ou NVSwitch 3 ASIC usado nas máquinas DGX-H100 e DGX-GH200 mais recentes. As placas de sistema para CPUs, GPUs e interconexões NVSwitch são vendidas para hyperscalers e construtores de nuvem e seus fornecedores ODM como uma unidade, com todos os componentes fabricados e testados, e também são vendidas para OEMs como componentes pré-montados, que por sua vez colocam em seus sistemas. Você pode comprar versões PCI-Express dos aceleradores GPU ou Quantum InfiniBand ou Spectrum Ethernet ASICs da Nvidia se quiser construir seus próprios sistemas, mas para o material de ponta rodando em uma malha de memória NVSwitch, você deve levar esses pré-montados componentes, que são chamados de HGX.

Tendo padronizado os componentes internos dos sistemas até certo ponto com HGX/DGX, a Nvidia agora quer padronizar os invólucros que envolvem esses componentes para acelerar o tempo de lançamento no mercado de todos os ODMs e OEMs e fazer com que os sistemas resultantes possam ser atualizado no campo na maior extensão possível, considerando quaisquer alterações arquitetônicas futuras que ocorrerão.

Em poucas palavras, é disso que se trata o esforço da MGX.

Tivemos um gostinho de como eram os designs iniciais do MGX em maio passado, quando o protótipo HGX Grace e os designs do sistema HGX Grace-Hopper foram divulgados pela Nvidia. Não eram apenas placas de sistema, mas designs completos de servidores montados em rack:

O esforço de padronização do MGX abrangerá as plataformas de computação do datacenter DGX/HGX, as plataformas de hospedagem do metaverso OVX e as plataformas gráficas e de jogos em nuvem CGX. :

Aqui estão os designs MGX que foram exibidos na Computex esta semana:

O da esquerda é um superchip Grace-Grace emparelhado com quatro aceleradores de GPU. O sistema no centro tem duas CPUs X86, duas interfaces de rede ConnectX e oito aceleradores de GPU, e o sistema à direita tem um par de mecanismos de computação refrigerados a água (estamos supondo superchips Grace-Hopper) e duas placas de interface de rede.