Dziś przez całą noc analizowałem następne generacje chipów GPU Feynman od NVIDIA, aby zrozumieć prawdziwe intencje firmy NVIDIA i przygotowałem raport dla szefów. Szczegółowy raport: "Ostateczna zmiana w mocy obliczeniowej AI - Przesunięcie paradygmatu 'światło, pamięć, obliczenia' w architekturze Feynman" Data publikacji: 1 marca 2026 r. Główne podmioty: $NVIDIA, $SK Hynix, #Samsung, $TSM (Taiwan Semiconductor Manufacturing Company), $AVGO (Broadcom), #中际旭创, #新易盛 Temat inwestycyjny: Od "zewnętrznych chipów" do "systemowego pakowania (SiP)" jako uderzenie w wymiarze Streszczenie raportu: Przełamanie fizycznych ograniczeń w trzech wymiarach W kontekście konferencji GTC 2026, NVIDIA formalnie ustaliła ścieżkę ewolucji od Rubina (2026) do Feynman (2028). Jej główna strategia jest już bardzo jasna: poprzez 3D stacking (SoIC) i technologie fotoniki krzemowej (CPO), wymusić "wciągnięcie" zysków z łańcucha dostaw (pamięć, sieć) do wnętrza pakietu GPU, co pozwoli na transformację z dostawcy chipów w "kontraktora systemów pełnostackowych". I. Ścieżka ewolucji GPU NVIDIA: od "miniaturyzacji" do "przestrzennego pakowania" Ewolucja architektury NVIDIA weszła w fizyczną grę w "po-moore'owskiej erze": Blackwell (2025): Ostatnia generacja szczytowych pakietów 2.5D, głównie dostosowana do 1.6T wymiennych modułów optycznych. Rubin (2026): Rok HBM4. Wprowadzenie ulepszonego procesu 3nm, po raz pierwszy próba integracji logiki na Base Die (podstawie). Feynman (2028): Ostateczna forma. Wykorzystanie procesu TSMC A16 (1.6nm) i zasilania z tyłu (BSPDN). Główna innowacja: pionowe pakowanie SRAM (LPU Dies) nad GPU. Zmiana roli: GPU nie jest już tylko jednostką obliczeniową, ale niezależnym systemem z "autostradą (CPO)" i "ogromnym zbiornikiem (3D SRAM)". II. Ścieżka ewolucji pamięci (HBM & SRAM): od "zewnętrznych" do "symbiotycznych" 1. Ewolucja technologii i zmiana ról HBM4 (2026/2027): Szerokość interfejsu wzrasta z 1024-bit do 2048-bit. Najważniejsza zmiana to przekazanie władzy na Base Die (logicznej podstawie). Producenci pamięci (SK Hynix/Samsung) muszą być głęboko związani z $TSM (Taiwan Semiconductor Manufacturing Company), aby produkować logiczne podstawy na poziomie 5nm. 3D SRAM (2028): Architektura Feynman wprowadza LPU Dies. Ta warstwa pamięci o wysokiej przepustowości (80-100 TB/s) będzie odpowiadać za 70% wymiany danych obliczeniowych w czasie rzeczywistym, co spowoduje, że HBM stanie się "pamięcią o dużej pojemności" zamiast "często używanej pamięci". 2. Obliczenia popytu i podaży: czarna dziura EB przy 40% wzroście GPU Przy rocznym wzroście GPU o 40% oraz podwajaniu pojemności HBM na kartę (192G \rightarrow 288G \rightarrow 576G): W 2026 roku zapotrzebowanie wynosi 3.63EB, podaż 2.8EB, luka 22.9% ...