Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Sim, estou a aprofundar a arquitetura com base tanto no ICMS como na Enfabrica. É uma espécie de acordo Mellanox. Mas o NVLink estaria tão congestionado em torno da GPU, CPU e DPU. A Nvidia precisa de simplificar a passagem de dados para kv e peso.

ZephyrHá 8 horas
A introdução do HBF não vai acontecer
Veja o ICMS da Nvidia e o acordo com a Enfabrica para descobrir o porquê
15
Acho que o HBF está superestimado
Em algumas partes, mesmo que haja uma grande reformulação de software, não é impossível de usar, mas dizer que pode substituir o HBM ou que o mercado é grande é uma ilusão.
Se for apenas para ler, como está escrito aqui, em vez de kv, será o mesmo modelo de viés ou peso, mas isso tornaria a usabilidade péssima.
[Notícias] Segundo especialistas, o HBF pode ser integrado em GPUs da NVIDIA até 2027-28, e o mercado pode superar o HBM até 2038.
Com o aumento da carga de trabalho de IA, a adoção de Flash de alta largura de banda (HBF) está acelerando, e os especialistas preveem uma comercialização mais rápida do que o esperado. De acordo com o Sisa Journal, o professor Kim Jong-ho da KAIST, amplamente conhecido como o "pai do HBM", sugeriu que a Samsung Electronics e a SanDisk planejam integrar o HBF em produtos da NVIDIA, AMD e Google até o final de 2027 ou início de 2028. Como apontado no relatório, o professor Kim acrescenta que, enquanto o desenvolvimento do HBM leva mais de 10 anos, as empresas já estão aproveitando a experiência acumulada em processos e design do HBM para iniciar o desenvolvimento do HBF, o que pode levar a uma comercialização muito mais rápida.
Além disso, Kim prevê que a adoção do HBF se expandirá por volta da introdução do HBM6, e que o mercado de HBF pode superar o HBM por volta de 2038. Segundo Kim, o HBM6 não será um único empilhamento de memória, mas sim múltiplos empilhamentos interconectados como um condomínio. À medida que o HBM baseado em DRAM enfrenta limites de capacidade, Kim acredita que o HBF em formato de empilhamento NAND surgirá para preencher essa lacuna.
O papel do HBF na inferência de IA e na arquitetura de sistemas
Sobre o papel do HBF nas cargas de trabalho de IA, Kim explica que a GPU primeiro obtém dados variáveis do HBM durante a inferência, processa e gera a saída. Ele acredita que no futuro o HBF assumirá esse papel, oferecendo uma capacidade significativamente maior para suportar as tarefas. O HBM é rápido, mas o HBF oferece cerca de 10 vezes mais capacidade. Como apontado no relatório, Kim enfatiza que, enquanto o HBF suporta ciclos de leitura ilimitados, os ciclos de gravação são limitados a cerca de 100 mil, o que significa que o software de empresas como OpenAI e Google precisa ser otimizado para operações concentradas em leitura.
Kim acrescenta que o processo atual de fornecimento de dados para GPUs envolve uma longa rota de transmissão através de redes de armazenamento, processadores de dados e pipelines de GPU. No futuro, ele imagina uma arquitetura mais simplificada que possa processar dados diretamente atrás do HBM. Essa estrutura, que se espera que seja realizada no HBM7, é também chamada de "fábrica de memória".
Samsung e SK Hynix impulsionam o desenvolvimento do HBF
Como destacado no relatório, a SK Hynix planeja demonstrar uma versão de teste do HBF no final deste mês. Além disso, a Samsung Electronics e a SK Hynix assinaram um memorando de entendimento (MOU) para promover a padronização do HBF com a SanDisk, e atualmente estão avançando em seus esforços por meio de um consórcio conjunto. Ambas as empresas estão ativamente desenvolvendo produtos HBF, visando um lançamento no mercado em 2027.
De acordo com fontes da indústria citadas no relatório, estima-se que o HBF possa alcançar uma largura de banda superior a 1.638 GB/s, o que representa um grande salto em comparação com um SSD padrão que normalmente oferece cerca de 7.000 MB/s via NVMe PCIe 4.0. Em termos de capacidade, espera-se que o HBF atinja até 512 GB, superando significativamente os 64 GB do HBM4.
12
Folhas de cobre, perfuração de brocas
Atualização com Google TPU
M9 cinza Panasonic é incrível
O TPU do Google lidera a tecnologia CCL (Chip Cl) e os fabricantes de brocas de perfuração estão recebendo bem a atualização.
À medida que a plataforma ASIC continua a evoluir para atender a requisitos mais altos de densidade de computação e largura de banda, o TPU desenvolvido internamente pelo Google está entrando em uma nova fase de atualização de especificações. Fontes da cadeia de suprimentos indicam que, a partir de 2026, o Google elevará o número de camadas de PCB e a qualidade dos materiais CCL da próxima geração da plataforma TPU, proporcionando oportunidades de atualização de especificações para fabricantes de CCL no Japão e em Taiwan. Com o aumento do número de camadas da placa e a dificuldade dos materiais, a estrutura de demanda por brocas de perfuração no processo de fabricação também mudará.
O fornecimento de CCL para o projeto TPU do Google é atualmente sustentado principalmente pela Panasonic do Japão e pela Taikoo Technology de Taiwan. Ao olhar para a geração TPU V6e (série Ghost), a Panasonic enfrentou uma escassez de fornecimento de fibra de vidro de baixa constante dielétrica, enquanto a Taikoo Technology entrou na cadeia de suprimentos e conquistou uma participação significativa. De acordo com estimativas da cadeia de suprimentos, no novo projeto da geração TPU, a Panasonic será responsável por cerca de 70% do fornecimento, enquanto a Taikoo Technology terá cerca de 30%, sugerindo um retorno a uma estrutura de fornecimento mais estável.
Com base no design atual, a série Ghost, GhostLite e GhostFish mantém uma configuração conservadora de cerca de 22 a 24 camadas de PCB e CCL de grau M7. No entanto, após 2026, a plataforma TPU migrará para ZebraFish e SunFish, com especificações gerais significativamente melhoradas. Fontes da cadeia de suprimentos indicam que a nova plataforma adotará CCL de grau M8/M9, com o número de camadas de PCB aumentando para 36 e 44 camadas, respectivamente, e adotará fibra óptica de baixa Dk de maior qualidade e folhas de cobre HVLP4 para atender a requisitos mais altos de largura de banda e consumo de energia.
Com o aumento do número de camadas de PCB e da qualidade dos materiais, a pressão sobre o processo de fabricação também está aumentando rapidamente. De acordo com especialistas da indústria, a demanda por brocas de perfuração para placas de AI de alta gama está crescendo a um ritmo que supera significativamente a taxa de crescimento da produção de PCB. Tradicionalmente, uma broca de perfuração era utilizada cerca de 3.000 vezes, mas com a adoção de placas de AI de alta gama, sua vida útil caiu drasticamente para menos de 800 vezes. No futuro, com a introdução de placas de interconexão de nível M9 e placas-mãe ASIC, o número de usos de uma única broca de perfuração pode diminuir ainda mais.
Analistas da indústria acreditam que a mudança no design do TPU do Google após 2026 significa que os ASIC entraram em uma nova fase de "alto número de camadas, altas especificações de materiais e alto valor agregado". Isso não apenas se refletirá no preço médio de venda (ASP) de produtos CCL e PCB de alta gama, mas também terá repercussões em toda a cadeia de suprimentos upstream, incluindo fibra de vidro de baixa constante dielétrica, folhas de cobre HVLP de alta gama e brocas de perfuração. A cadeia de suprimentos está ajustando suas configurações antecipadamente para se adaptar à adoção da nova plataforma.
17
Top
Classificação
Favoritos
