Como a HBM eleva os preços da DRAM: ▫️Centros de dados de IA precisam de memória de alta largura de banda (HBM) para cargas de trabalho de IA (velocidade, capacidade). ▫️O HBM é feito empilhando verticalmente chips DRAM 3-4x. ▫️Fabricantes de memória (Micron, Samsung SK Hynix) usam DRAM para HBM em vez de PCs e smartphones. ▫️A DRAM representa de 15 a 40% dos custos de PC e smartphones (o fornecimento está acabando e nova capacidade vai para a HBM) ▫️A HBM tem margens operacionais muito melhores em comparação com a DRAM (50% contra 35%) ▫️Fabricantes chineses de memórias estão focando em HBM em vez de DRAM (enquanto isso, a Micron saiu do negócio de DRAM para consumidores). ▫️Até 2030, a HBM representará 50%+ de toda a receita de DRAM (acima de apenas 8% em 2023). *** Estatísticas da The Economist: Vídeo da Bloomberg sobre Micron HBM: