Półdopingowany odcinek #3: Nvidia CES 2026 - Gdzie był przełącznik Infiniband? "6 chipów" zamiast 7 - Panika nieświadomego inwestora i dotyk Midas'a Jensena - Demo DGX Spark (GB10) było niesamowite. MacBook jako cienki klient, DGX Spark jako lokalny serwer AI. Może DGX Spark to prawdziwy komputer AI? - DGX Station (GB300) przenosi obliczenia AI na granicy z chmury i udostępnia je lokalnie w przedsiębiorstwie. Nadal 1600W, chociaż (może chłodzone cieczą?) więc może nie na twoim biurku? - Historyczny paralel to mainframe'y za $1M+ w porównaniu do minikomputerów za $100K, rozszerzając rynek obliczeń zamiast zastępować użycie chmury. - Pamięć kontekstowa podnosi SSD, umożliwiając masowe odciążenie pamięci KV poza HBM i DRAM. Podobna technologia już istnieje (Supermicro JBOF) - Czym jest DPU? Obliczenia w sieci - Nowy procesor Vera podkreśla rosnące znaczenie CPU dla obciążeń agentowych dzięki wyższym liczbie rdzeni, SMT i dużej pojemności LPDDR. 00:00 Najważniejsze wydarzenia CES i prezentacja Nvidii 02:36 DGX Spark: Przyszłość komputerów AI 05:00 Zużycie energii i praktyczność sprzętu AI 07:43 Ewolucja obliczeń AI: Od mainframe'ów do komputerów stacjonarnych 10:28 Alpamayo: Platforma autonomicznych pojazdów Nvidii 18:10 Platforma Vera Rubin: Nowa era w obliczeniach AI 23:11 Ewoluująca rola CPU w obciążeniach AI 26:26 Zarządzanie pamięcią i innowacje w przechowywaniu kontekstu 29:39 Postępy w technologii GPU i wydajności 35:00 Znaczenie DPU w infrastrukturze AI 38:28 Najważniejsze punkty wystąpienia NVIDII i reakcje rynku 44:20 Pozycja AMD i przyszłe kierunki w AI @vikramskr @theaustinlyons