Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dziś przez całą noc analizowałem następne generacje chipów GPU Feynman od NVIDIA, aby zrozumieć prawdziwe intencje firmy NVIDIA i przygotowałem raport dla szefów.
Szczegółowy raport: "Ostateczna zmiana w mocy obliczeniowej AI - Przesunięcie paradygmatu 'światło, pamięć, obliczenia' w architekturze Feynman"
Data publikacji: 1 marca 2026 r.
Główne podmioty: $NVIDIA, $SK Hynix, #Samsung, $TSM (Taiwan Semiconductor Manufacturing Company), $AVGO (Broadcom), #中际旭创, #新易盛
Temat inwestycyjny: Od "zewnętrznych chipów" do "systemowego pakowania (SiP)" jako uderzenie w wymiarze
Streszczenie raportu: Przełamanie fizycznych ograniczeń w trzech wymiarach
W kontekście konferencji GTC 2026, NVIDIA formalnie ustaliła ścieżkę ewolucji od Rubina (2026) do Feynman (2028). Jej główna strategia jest już bardzo jasna: poprzez 3D stacking (SoIC) i technologie fotoniki krzemowej (CPO), wymusić "wciągnięcie" zysków z łańcucha dostaw (pamięć, sieć) do wnętrza pakietu GPU, co pozwoli na transformację z dostawcy chipów w "kontraktora systemów pełnostackowych".
I. Ścieżka ewolucji GPU NVIDIA: od "miniaturyzacji" do "przestrzennego pakowania"
Ewolucja architektury NVIDIA weszła w fizyczną grę w "po-moore'owskiej erze":
Blackwell (2025): Ostatnia generacja szczytowych pakietów 2.5D, głównie dostosowana do 1.6T wymiennych modułów optycznych.
Rubin (2026): Rok HBM4. Wprowadzenie ulepszonego procesu 3nm, po raz pierwszy próba integracji logiki na Base Die (podstawie).
Feynman (2028): Ostateczna forma. Wykorzystanie procesu TSMC A16 (1.6nm) i zasilania z tyłu (BSPDN).
Główna innowacja: pionowe pakowanie SRAM (LPU Dies) nad GPU.
Zmiana roli: GPU nie jest już tylko jednostką obliczeniową, ale niezależnym systemem z "autostradą (CPO)" i "ogromnym zbiornikiem (3D SRAM)".
II. Ścieżka ewolucji pamięci (HBM & SRAM): od "zewnętrznych" do "symbiotycznych"
1. Ewolucja technologii i zmiana ról
HBM4 (2026/2027): Szerokość interfejsu wzrasta z 1024-bit do 2048-bit. Najważniejsza zmiana to przekazanie władzy na Base Die (logicznej podstawie). Producenci pamięci (SK Hynix/Samsung) muszą być głęboko związani z $TSM (Taiwan Semiconductor Manufacturing Company), aby produkować logiczne podstawy na poziomie 5nm.
3D SRAM (2028): Architektura Feynman wprowadza LPU Dies. Ta warstwa pamięci o wysokiej przepustowości (80-100 TB/s) będzie odpowiadać za 70% wymiany danych obliczeniowych w czasie rzeczywistym, co spowoduje, że HBM stanie się "pamięcią o dużej pojemności" zamiast "często używanej pamięci".
2. Obliczenia popytu i podaży: czarna dziura EB przy 40% wzroście GPU
Przy rocznym wzroście GPU o 40% oraz podwajaniu pojemności HBM na kartę (192G \rightarrow 288G \rightarrow 576G):
W 2026 roku zapotrzebowanie wynosi 3.63EB, podaż 2.8EB, luka 22.9%
...


Najlepsze
Ranking
Ulubione
