Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Limites entre GPU e HBM colapsam... HBM de próxima geração para incorporar núcleos de GPU
Um método para montar Unidades de Processamento Gráfico (GPUs) na próxima geração de Memória de Alta Largura de Banda (HBM) está sendo explorado. Esta é uma nova tecnologia tentada por grandes empresas globais de tecnologia para melhorar o desempenho da Inteligência Artificial (IA). Isso significa que as fronteiras entre empresas de semicondutores estão sendo derrubadas em meio à convergência da memória e dos semicondutores de sistema.
De acordo com um relatório abrangente do dia 26, a Meta e a NVIDIA estão revisando planos para montar núcleos de GPU no HBM. Especificamente, isso envolve embutir núcleos de GPU no die base localizado na parte inferior da pilha HBM, e eles estão atualmente explorando cooperação com SK Hynix e Samsung Electronics.
Diversos profissionais da indústria familiarizados com o assunto afirmaram: "Arquiteturas 'HBM personalizadas' de próxima geração estão sendo discutidas e, entre elas, uma estrutura que integra diretamente núcleos de GPU ao chip base HBM está sendo buscada."
HBM é uma memória de alto desempenho criada ao empilhar múltiplos chips DRAM. Foi projetado para aplicações de IA que precisam processar grandes volumes de dados.
Atualmente, o die base é responsável pela comunicação entre a memória e o mundo exterior na parte mais baixa da estrutura HBM. Um avanço a partir daqui é a inclusão de um 'controlador', como implementado no HBM4. A indústria está tentando aumentar o desempenho e a eficiência adicionando um semicondutor capaz de controlar a memória. HBM4 é um produto programado para produção em massa a partir do próximo ano.
Incorporar núcleos de GPU é interpretado como uma tecnologia vários passos à frente do controlador HBM4. Em GPUs e CPUs, um núcleo é a unidade básica capaz de computação independente. Por exemplo, uma GPU de 4 núcleos significa que existem quatro núcleos capazes de computação; Quanto mais núcleos houver, mais o desempenho computacional melhora.
Colocar núcleos no HBM é uma tentativa de distribuir as funções computacionais concentradas na GPU para a memória, reduzindo assim o movimento de dados e diminuindo a carga sobre o corpo principal da GPU.
Um funcionário da indústria explicou: "Na computação de IA, um fator importante não é apenas a velocidade, mas também a eficiência energética", acrescentando: "Reduzir a distância física entre memória e unidades computacionais pode diminuir tanto a latência de transferência de dados quanto o consumo de energia."
No entanto, desafios técnicos permanecem. Devido às características do processo Through-Silicon Via (TSV), o espaço disponível para conter núcleos de GPU no die base HBM é muito limitado. Fonte de energia e dissipação de calor também são grandes problemas. Como os núcleos computacionais da GPU consomem alta energia e geram calor significativo, o controle térmico pode se tornar um gargalo.
Esse desenvolvimento pode ser tanto uma oportunidade quanto uma crise para a indústria doméstica de semicondutores. Se as empresas possuírem capacidades de fundição ou empacotamento para implementar CPUs ou GPUs, isso se torna uma oportunidade para desenvolver ainda mais a HBM e continuar liderando o mercado de semicondutores de IA. No entanto, há a preocupação de que, se as capacidades de resposta falharem, elas possam se tornar subordinadas à indústria de semicondutores de sistemas.
Kim Joung-ho, professor da Escola de Engenharia Elétrica da KAIST, disse: "A velocidade da transição tecnológica, onde a fronteira entre semicondutores de memória e sistema colapsa para o avanço da IA, vai acelerar", e acrescentou: "As empresas nacionais devem expandir seu ecossistema além da memória para o setor lógico para antecipar o mercado de HBM de próxima geração."

Melhores
Classificação
Favoritos
