Hoje à noite, fiz uma simulação sobre o próximo chip GPU de próxima geração da NVIDIA, Feynman, que será lançado em 16 de março. Analisei as verdadeiras intenções da NVIDIA e compilei um relatório para os chefes. Relatório detalhado: "A Mudança Definitiva na Potência de Cálculo de IA - A Transição do Paradigma 'Luz, Armazenamento, Cálculo' sob a Arquitetura Feynman" Data de publicação: 1 de março de 2026 Ativos principais: $NVIDIA, $SK Hynix, #Samsung, $TSM (Taiwan Semiconductor Manufacturing), $AVGO (Broadcom), #中际旭创, #新易盛 Tema de investimento: Da "extensão de chip" para "embalagem em nível de sistema (SiP)" como um ataque de redução dimensional Resumo do relatório: Quebrando os limites físicos em três dimensões No contexto da conferência GTC de 2026, a NVIDIA estabeleceu oficialmente o caminho de evolução de Rubin (2026) para Feynman (2028). Sua intenção estratégica central já está muito clara: através da empilhamento 3D (SoIC) e da tecnologia de fotônica de silício (CPO), forçar os lucros que pertencem originalmente à cadeia de suprimentos (armazenamento, rede) a serem "absorvidos" dentro da embalagem da GPU, realizando a transição de fornecedor de chip para "contratante de sistema completo". 1. Caminho de evolução da GPU da NVIDIA: de "miniaturização" para "empilhamento espacial" A evolução da arquitetura da NVIDIA entrou na disputa física da "era pós-Moore": Blackwell (2025): A última geração de embalagem 2.5D, adaptada principalmente para módulos ópticos plugáveis de 1.6T. Rubin (2026): O ano do HBM4. Introdução do processo aprimorado de 3nm, pela primeira vez tentando a integração lógica na Base Die (base). Feynman (2028): Forma final. Utiliza o processo A16 (1.6nm) da TSMC e fornecimento de energia pela parte traseira (BSPDN). Inovação central: Empilhar SRAM (LPU Dies) verticalmente sobre a GPU. Mudança de papel: A GPU não é mais apenas uma unidade de cálculo, mas um sistema independente com "autoestrada (CPO)" e "tanque de combustível super grande (3D SRAM)". 2. Caminho de evolução do armazenamento (HBM & SRAM): de "extensão" para "simbiose" 1. Evolução tecnológica e mudança de papéis HBM4 (2026/2027): A largura de banda da interface dobra de 1024-bit para 2048-bit. A mudança mais crítica é a transferência de poder da Base Die (base lógica). As fábricas de armazenamento (SK Hynix/Samsung) devem se vincular profundamente à $TSM (Taiwan Semiconductor Manufacturing) para produzir a base lógica de 5nm. 3D SRAM (2028): A arquitetura Feynman introduz LPU Dies. Este cache de alta largura de banda (80-100 TB/s) assumirá 70% da troca de dados de cálculo em tempo real, fazendo com que o HBM degrade de "memória de acesso frequente" para "tanque de fundo de alta capacidade". 2. Cálculo de oferta e demanda: um buraco negro de nível EB com 40% de crescimento da GPU Com uma taxa de crescimento composta de 40% ao ano para GPUs, somando a duplicação da capacidade de HBM por cartão (192G \rightarrow 288G \rightarrow 576G): Demanda de 3.63EB em 2026, oferta de 2.8EB, lacuna de 22.9% ...