Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
2026 konsoliduje się w 3 naprawdę duże zakłady, gdzie jeśli jeden zawiedzie, skutkuje to krótkoterminowym załamaniem bańki.
1. centra danych
Anthropic, Xai agresywnie skalują się do 1M GPU. Obie planują osiągnąć ten cel do Q2. Modele wytrenowane na tej infrastrukturze muszą potwierdzić, że prawo skalowania obliczeń nadal jest skuteczne. W przeciwnym razie wskaże to, że musimy zbadać nową architekturę modelu. To również zależy od infrastruktury energetycznej (power shell), która musi być skalowana, chociaż to będzie problem przez następną dekadę, nie mówiąc już o tym roku.
2. pamięć
W tym roku mamy wystarczająco dużo pamięci, aby wspierać 15GW GPU, podczas gdy hyperscalerzy celują w 30-40 w ciągu następnych 2 lat. Jesteśmy tu na krawędzi - jeśli Samsung, $MU lub SK Hynix zawalą swoją produkcję, to zatrzyma to zakład numer 1. Również ten, kto zabezpieczy większość tej pojemności pamięci do tworzenia GPU, wygrywa najwięcej w ramach ograniczonej pojemności produkcyjnej, a teraz to $NVDA.
3. tańsza, bardziej efektywna infrastruktura
NVIDIA najnowszy GPU Vera Rubin jest 5 razy bardziej wydajny, ale co ważniejsze, 4 razy bardziej efektywny obliczeniowo, co oznacza, że koszty wnioskowania spadły - inteligencja graniczna za grosze! W tym roku będzie obfitość mocy obliczeniowej dostępnej do trenowania, ale co ważniejsze, do używania AI, więc paradoks Jevonsa musi udowodnić swoją wartość poprzez rosnący popyt. Jeśli to zawiedzie, to powyższe dwa zakłady upadną. Moim zdaniem najmniej martwię się o ten - myślę, że agentowe wykorzystanie i RL po treningu będą nadal wzmacniać modele.
Bardzo optymistycznie.
Najlepsze
Ranking
Ulubione
