Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Google jest firmą, która nie ma problemu z mocą obliczeniową, ma jej więcej niż NVIDIA.
Nawet GPU NVIDIA prawdopodobnie podąża za TPU (to półprzezroczysta zgoda w branży).
1️⃣ Rdzenie tensorowe (Tensor Core)
NVIDIA wprowadziła je na szeroką skalę po Volta, w zasadzie zbliżając się do specjalizacji mnożenia macierzy TPU.
2️⃣ Obliczenia o niskiej precyzji (FP16 / BF16 / INT8)
TPU od dawna optymalizuje niską precyzję dla wnioskowania, podczas gdy GPU zostały zmuszone do wsparcia przez wymagania modeli.
3️⃣ Duże klastry + współpraca kompilatora
TPU to całość „sprzęt × kompilator × harmonogram”, podczas gdy NVIDIA dopiero zaczyna poważnie pracować nad współpracą na poziomie Triton / CUDA Graph / NVLink.
NVIDIA zarabia na mocy obliczeniowej chipów, podczas gdy Google opiera się na stabilnym ekosystemie, reklamach, wyszukiwarce, YouTube, przeglądarkach, Androidzie i innych zjawiskach internetowych, które dostarczają zasoby; moc obliczeniowa to tylko koszt, a nie zysk.
TPU od zawsze jest w pełni rozwijane przez Google, co pozwala na wystarczająco długi czas badań i rewizji.
Jeff Dean rozumie TPU w ten sposób: jeśli model jest zdefiniowany przez Ciebie, to sprzęt również powinien być przez Ciebie zdefiniowany, dlatego TPU to całościowy projekt inżynieryjny obejmujący kompilator (XLA), graf obliczeniowy (TensorFlow), topologię centrum danych i system harmonogramu.
Z perspektywy ryzyka, ponieważ NVIDIA sprzedaje GPU, musi obsługiwać wszystkich klientów, co oznacza bardzo niską tolerancję na błędy.
Które amerykańskie akcje kupić, jest teraz jasne.
Najlepsze
Ranking
Ulubione
