Reflexões sobre NVIDIA Rubin e AMD MI455X Vamos mergulhar em uma comparação entre o Rubin da Nvidia e o MI455X da AMD, ambos apresentados hoje. Começando com o Rubin, utiliza uma configuração HBM4 de 8 stacks. Ele possui uma largura de banda de memória de 22TB/s, aproveitando memória com um Fmax por pino de cerca de 10,7Gbps. Por outro lado, o MI455X opta por uma configuração HBM4 com 12 pilhas. No entanto, ele entrega uma largura de banda de 19,6TB/s, usando memória com um Fmax por pino de aproximadamente 6,4Gbps. Considerando que o padrão JEDEC atual para HBM4 é 8Gbps, a diferença é gritante: a Rubin utiliza o HBM4 de alta qualidade e de alta qualidade, enquanto o MI455X parece depender do HBM4 que está abaixo da especificação padrão. Isso destaca uma divergência distinta na estratégia corporativa: usar componentes de alto nível vs. capacidade de forçar bruto. A AMD provavelmente adotou essa abordagem porque garantir volumes HBM4 em alta velocidade é um desafio para eles. No entanto, essa estratégia envolve dois riscos significativos. Primeiro, as implicações de custo e rendimento. Montar mais pilhas de HBM requer uma área maior de interposer, o que aumenta diretamente os custos unitários. Além disso, uma pegada maior inevitavelmente reduz o rendimento para montagem de embalagem 2.5D. Em outras palavras, a estratégia de usar mais unidades de HBM4 de especificação inferior pode, paradoxalmente, acabar sendo mais cara do que a estratégia da Nvidia de usar menos unidades de HBM4 de alta especificação. Segundo, o impacto durante a escassez de memória. Essa abordagem agrava os gargalos na cadeia de suprimentos. Uma configuração de 12 pilhas consome 50% mais chiplets/pilhas HBM por GPU em comparação com um design de 8 pilhas. Quanto mais apertado for o fornecimento global de HBM4, maior o volume de remessas da AMD fica limitado pela disponibilidade de memória. Claro, nos estágios iniciais, quando os rendimentos do HBM4 de alta especificação são baixos, isso não é um problema grave — baixos rendimentos para peças de top-bin naturalmente resultam em abundância de oferta de caixas mais baixas. Mas o que acontece à medida que a curva de aprendizado do rendimento melhora? À medida que os rendimentos do HBM4 de alta gama aumentam, os fornecedores terão mais incentivo para alocar wafers aos chips de maior margem destinados à Nvidia. Isso torna cada vez mais difícil para a AMD conseguir grandes volumes de HBM4 de baixo desempenho a preços baixos. Além disso, com a Samsung tendo bom desempenho no espaço do HBM4, a AMD não conseguirá adquirir estoque a preços de "liquidação" como fazia durante o ciclo do HBM3E. No fim das contas, a AMD enfrenta uma estrutura de custos inerentemente mais desvantajosa no nível do chip em comparação com a Rubin da Nvidia.