As fronteiras entre GPU e HBM colapsam… HBM de próxima geração para incorporar núcleos de GPU Um método de montagem de Unidades de Processamento Gráfico (GPUs) em memória de alta largura de banda de próxima geração (HBM) está sendo perseguido. Esta é uma nova tecnologia tentada por grandes empresas de tecnologia globais para melhorar o desempenho da Inteligência Artificial (AI). Isso significa que as fronteiras entre as empresas de semicondutores estão sendo derrubadas em meio à convergência de memória e semicondutores de sistema. De acordo com uma reportagem abrangente no dia 26, a Meta e a NVIDIA estão revisando planos para montar núcleos de GPU na HBM. Especificamente, isso envolve a incorporação de núcleos de GPU no chip base localizado na parte inferior da pilha de HBM, e atualmente estão explorando cooperação com a SK Hynix e a Samsung Electronics. Vários insiders da indústria familiarizados com o assunto afirmaram: "Arquiteturas de 'custom HBM' de próxima geração estão sendo discutidas, e entre elas, uma estrutura que integra diretamente os núcleos de GPU no chip base da HBM está sendo perseguida." A HBM é uma memória de alto desempenho criada empilhando múltiplos chips DRAM. Foi projetada para aplicações de AI que precisam processar enormes quantidades de dados. Atualmente, o chip base é responsável pela comunicação entre a memória e o mundo exterior na parte inferior da estrutura HBM. Um passo adiante a partir daqui é a inclusão de um 'controlador', como implementado na HBM4. A indústria está tentando aumentar o desempenho e a eficiência adicionando um semicondutor capaz de controlar a memória. A HBM4 é um produto programado para produção em massa em larga escala a partir do próximo ano. A incorporação de núcleos de GPU é interpretada como uma tecnologia vários passos à frente do controlador HBM4. Em GPUs e CPUs, um núcleo é a unidade básica capaz de computação independente. Por exemplo, uma GPU de 4 núcleos significa que há quatro núcleos capazes de computação; quanto mais núcleos houver, mais melhora o desempenho computacional. Colocar núcleos na HBM é uma tentativa de distribuir as funções computacionais que estavam concentradas na GPU para a memória, reduzindo assim o movimento de dados e diminuindo a carga sobre o corpo principal da GPU. Um oficial da indústria explicou: "Na computação de AI, um fator importante não é apenas a velocidade, mas também a eficiência energética," acrescentando: "Reduzir a distância física entre a memória e as unidades computacionais pode reduzir tanto a latência de transferência de dados quanto o consumo de energia." No entanto, desafios técnicos permanecem. Devido às características do processo de Via de Silício (TSV), o espaço disponível para conter núcleos de GPU no chip base da HBM é muito limitado. O fornecimento de energia e a dissipação de calor também são questões importantes. Como os núcleos computacionais de GPU consomem alta energia e geram calor significativo, o controle térmico pode se tornar um gargalo. Esse desenvolvimento pode ser tanto uma oportunidade quanto uma crise para a indústria de semicondutores doméstica. Se as empresas possuírem as capacidades de fundição ou embalagem para implementar CPUs ou GPUs, torna-se uma oportunidade para desenvolver ainda mais a HBM e continuar liderando o mercado de semicondutores de AI. No entanto, há uma preocupação de que, se as capacidades de resposta forem insuficientes, elas possam se tornar subordinadas à indústria de semicondutores de sistema. Kim Joung-ho, professor da Escola de Engenharia Elétrica da KAIST, disse: "A velocidade da transição tecnológica onde a fronteira entre memória e semicondutores de sistema colapsa para o avanço da AI irá acelerar," e acrescentou: "As empresas domésticas devem expandir seu ecossistema além da memória para o setor lógico para antecipar o mercado de HBM de próxima geração."