Acho que HBF é superestimado demais Em alguns casos, se o software for modificado consideravelmente, não será impossível usá-lo, mas seria uma ilusão de que substituirá o HBM ou que o tamanho do mercado será grande Como escrito aqui, se estiver quase carregado aqui, será o viés e peso do mesmo modelo, não KV, mas isso seria insanamente inutilizável Segundo especialistas, o HBF pode ser introduzido nas GPUs NVIDIA até 2027~28, e o mercado pode superar o HBM até 2038 Com o aumento das cargas de trabalho em IA, a adoção do flash de alta largura de banda (HBF) está acelerando, e especialistas preveem uma comercialização mais cedo do que o esperado. Segundo o Sisa Journal, o professor do KAIST Kim Jong-ho, popularmente conhecido como o "pai do HBM", sugere que a Samsung Electronics e a SanDisk planejam integrar o HBF aos produtos NVIDIA, AMD e Google até o final de 2027 ou início de 2028. Como mencionado no relatório, Kim acrescenta que, embora o HBM leve mais de 10 anos para ser desenvolvido, o HBF pode ser comercializado muito antes, já que as empresas já estão aproveitando a expertise em processos e design acumulada no HBM para desenvolver o HBF. Além disso, Kim prevê que a adoção do HBF se expandirá por volta da época em que o HBM6 for introduzido, e o mercado de HBF pode superar o HBM por volta de 2038. Segundo Kim, o HBM6 não é uma única pilha de memória, mas múltiplas pilhas estão interconectadas como um prédio de apartamentos. À medida que os HBMs baseados em DRAM enfrentam limitações de capacidade, Kim acredita que o HBF na forma de pilhas NAND surgirá para preencher essa lacuna. O papel do HBF na inferência de IA e na arquitetura de sistemas Sobre o papel do HBF em cargas de trabalho de IA, Kim explicou que as GPUs primeiro obtêm dados variáveis do HBM durante a inferência, processam-nos e geram saída. Kim acredita que, no futuro, a HBF assumirá esse papel e fornecerá uma capacidade significativamente maior para apoiar a tarefa. O HBM é mais rápido, enquanto o HBF oferece cerca de 10 vezes mais capacidade. Como mencionado no relatório, Kim enfatiza que, embora o HBF suporte ciclos ilimitados de leitura, ele é limitado a cerca de 100.000 ciclos de escrita, então o software de empresas como OpenAI e Google deve ser otimizado para operações intensivas em leitura. Kim acrescentou ainda que o processo atual de alimentação de dados para GPUs envolve um longo caminho de transmissão através da rede de armazenamento, processadores de dados e pipelines de GPU. No futuro, a empresa prevê uma arquitetura mais simplificada que possa processar dados diretamente atrás do HBM. Essa estrutura, que deve ser implementada no HBM7, às vezes é chamada de "fábrica de memória". Samsung e SK Hynix estão promovendo o desenvolvimento do HBF Como destacado no relatório, a SK hynix planeja lançar uma versão experimental do HBF para demo ainda este mês. O relatório também destacou que a Samsung Electronics e a SK Hynix assinaram um memorando de entendimento (MOU) com a SanDisk para promover a padronização do HBF e estão atualmente trabalhando nessa iniciativa por meio de um consórcio conjunto. Ambas as empresas estão desenvolvendo ativamente produtos HBF e pretendem lançá-los em 2027. De acordo com fontes do setor citadas no relatório, estima-se que o HBF seja capaz de fornecer larguras de banda superiores a 1.638GB/s, o que representa um salto significativo em comparação com SSDs padrão que normalmente oferecem cerca de 7.000MB/s via NVMe PCIe 4.0. Em termos de capacidade, espera-se que o HBF alcance até 512GB, significativamente maior que os 64GB do HBM4.