Heute habe ich die nächste Generation des GPU-Chips Feynman von NVIDIA am 16. März eine ganze Nacht lang simuliert und die wahren Absichten von NVIDIA analysiert. Ich habe einen Bericht für die Chefs zusammengestellt. Tiefenbericht: "Die ultimative Veränderung der KI-Rechenleistung – Paradigmenwechsel von "Licht, Speicher, Berechnung" unter der Feynman-Architektur" Veröffentlichungsdatum: 1. März 2026 Kernziele: $NVIDIA, $SK Hynix, #Samsung, $TSM Taiwan Semiconductor Manufacturing Company, $AVGO Broadcom, #中际旭创, #新易盛 Anlagethema: Von "Chip-Add-ons" zu "System-Level Packaging (SiP)" als Dimensionstransformation Berichtszusammenfassung: Durchbrechen der physikalischen Grenzen in drei Dimensionen Vor dem Hintergrund der GTC-Konferenz 2026 hat NVIDIA offiziell den Evolutionspfad von Rubin (2026) zu Feynman (2028) festgelegt. Die Kernstrategie ist bereits sehr klar: Durch 3D-Stacking (SoIC) und Siliziumphotonik (CPO) sollen die ursprünglich den oberen und unteren Gliedern der Lieferkette gehörenden Gewinne (Speicher, Netzwerk) gezwungen "in" das GPU-Package aufgenommen werden, um sich von einem Chip-Lieferanten zu einem "Full-Stack-Systemanbieter" zu wandeln. 1. Evolutionspfad der NVIDIA-GPU: Von "Miniaturisierung" zu "räumlichem Stapeln" Die Architekturentwicklung von NVIDIA ist in das physikalische Spiel der "Post-Moore-Ära" eingetreten: Blackwell (2025): Die letzte Generation der 2.5D-Pakete, die hauptsächlich für 1.6T steckbare Lichtmodule geeignet ist. Rubin (2026): Das Jahr von HBM4. Einführung des verbesserten 3nm-Prozesses, erstmals logische Integration auf dem Base Die (Basis). Feynman (2028): Ultimative Form. Verwendung des TSMC A16 (1.6nm) Prozesses und der Rückstromversorgung (BSPDN). Kerninnovation: Vertikales Stapeln von SRAM (LPU Dies) über der GPU. Rollenwechsel: Die GPU ist nicht mehr nur eine Recheneinheit, sondern ein unabhängiges System mit "Autobahn (CPO)" und "großem Tank (3D SRAM)". 2. Evolutionspfad von Speicher (HBM & SRAM): Von "Add-ons" zu "Symbiose" 1. Technologische Entwicklung und Rollenwechsel HBM4 (2026/2027): Die Schnittstellenbreite verdoppelt sich von 1024-Bit auf 2048-Bit. Die entscheidende Veränderung ist die Machtübertragung des Base Die (logische Basis). Speicherhersteller (Hynix/Samsung) müssen eng mit $TSM Taiwan Semiconductor Manufacturing Company verbunden sein, um logische Basen im 5nm-Bereich zu produzieren. 3D SRAM (2028): Die Feynman-Architektur führt LPU Dies ein. Dieser hochbandbreitige (80-100 TB/s) Cache wird 70% des Echtzeit-Datenverkehrs übernehmen, was dazu führt, dass HBM von "häufig genutztem Speicher" zu "hochkapaizitivem Hintergrundtank" degradiert wird. 2. Angebots- und Nachfrageschätzung: EB-Level-Schwarzes Loch bei 40% GPU-Wachstum Bei einer jährlichen Wachstumsrate von 40% für GPUs, kombiniert mit einer Verdopplung der HBM-Kapazität pro Karte (192G \rightarrow 288G \rightarrow 576G): 2026: Nachfrage 3.63EB, Angebot 2.8EB, Lücke 22.9% ...