Idag drog jag under natten fram till Nvidias nästa-generations GPU-chip Feynman, analyserade Nvidias verkliga avsikter för dig och sammanfattade en rapport till cheferna. Djupgående rapport: "Den ultimata förändringen i AI:s beräkningskraft – paradigmskiftet för "Ljus, lagring och databehandling" under Feynman-arkitekturen" Utgivningsdatum: 1 mars 2026 Kärnmål: $NVIDIA, $SK Hynix, #Samsung, $TSM TSMC, $AVGO Broadcom, #中际旭创, #新易盛 Investeringstema: Dimensionsreduktion går från "chip-plug-ins" till "system-in-package (SiP)" Rapportsammanfattning: Tre dimensioner som bryter fysikens gränser I samband med GTC-konferensen 2026 formaliserade Nvidia sin evolutionära väg från Rubin (2026) till Feynman (2028). Dess kärnstrategiska avsikt är mycket tydlig: genom 3D-stacking (SoIC) och kiselfotonik (CPO)-teknologi kommer vinsterna (lagring, nätverk) som ursprungligen tillhörde upp- och nedströms i industrikedjan att tvingas "sugas in" i GPU-paketet, vilket innebär en omvandling från chipleverantör till "fullstacksystementreprenör". 1. Utvecklingsvägen för NVIDIA GPU:er: från "miniatyrisering" till "rumslig stapling" Nvidias arkitektoniska utveckling har gått in i fysikspelens "post-Moore-era": Blackwell (2025): Höjdpunkten i den senaste generationens 2,5D-förpackningar, främst anpassad till 1,6T-inpluggbara optiska transceivrar. Rubin (2026): Det första året av HBM4. Introduktionen av en 3nm-förbättrad process, det första försöket till logikintegration på baschippen. Feynman (2028): Den ultimata formen. Den använder TSMC A16 (1,6 nm) processen med backside power delivery (BSPDN). Kärninnovation: Stacka SRAM (LPU dies) vertikalt ovanpå GPU:n. Rollförändring: GPU:n är inte längre bara en beräkningsenhet, utan ett fristående system med egen "highway (CPO)" och "överdimensionerad bränsletank (3D SRAM)". 2. Lagrings- (HBM & SRAM) Evolutionsväg: Från "Plug-in" till "Symbios" 1. Teknologisk utveckling och rollförändring HBM4 (2026/2027): Gränssnittets bitbredd fördubblades från 1024 bitar till 2048 bitar. Den mest kritiska förändringen är överföringen av kraft till Base Die. Lagringsanläggningen (Hynix/Samsung) måste vara djupt kopplad till $TSM TSMC för att kunna producera en logikbas på 5nm-nivå. 3D SRAM (2028): Feynman-arkitekturen introducerar LPU-dies. Detta lager av högbandbreddscache (80–100 TB/s) kommer att ta över 70 % av realtidsdatautbytet, vilket gör att HBM försämras från "ofta använt minne" till "högkapacitets bakgrundstank". 2. Beräkning av utbud och efterfrågan: ett exabyte-nivå svart hål med 40 % GPU-tillväxt Med en sammansatt tillväxttakt på 40 % år-för-år för GPU:er har HBM-kapaciteten för ett enda kort fördubblats (192G, 192G, 288G och 576G): År 2026 är efterfrågan 3,63EB och utbudet 2,8EB, med ett gap på 22,9 % ...