Google jest firmą, która nie ma problemu z mocą obliczeniową, ma jej więcej niż NVIDIA. Nawet GPU NVIDIA prawdopodobnie podąża za TPU (to półprzezroczysta zgoda w branży). 1️⃣ Rdzenie tensorowe (Tensor Core) NVIDIA wprowadziła je na szeroką skalę po Volta, w zasadzie zbliżając się do specjalizacji mnożenia macierzy TPU. 2️⃣ Obliczenia o niskiej precyzji (FP16 / BF16 / INT8) TPU od dawna optymalizuje niską precyzję dla wnioskowania, podczas gdy GPU zostały zmuszone do wsparcia przez wymagania modeli. 3️⃣ Duże klastry + współpraca kompilatora TPU to całość „sprzęt × kompilator × harmonogram”, podczas gdy NVIDIA dopiero zaczyna poważnie pracować nad współpracą na poziomie Triton / CUDA Graph / NVLink. NVIDIA zarabia na mocy obliczeniowej chipów, podczas gdy Google opiera się na stabilnym ekosystemie, reklamach, wyszukiwarce, YouTube, przeglądarkach, Androidzie i innych zjawiskach internetowych, które dostarczają zasoby; moc obliczeniowa to tylko koszt, a nie zysk. TPU od zawsze jest w pełni rozwijane przez Google, co pozwala na wystarczająco długi czas badań i rewizji. Jeff Dean rozumie TPU w ten sposób: jeśli model jest zdefiniowany przez Ciebie, to sprzęt również powinien być przez Ciebie zdefiniowany, dlatego TPU to całościowy projekt inżynieryjny obejmujący kompilator (XLA), graf obliczeniowy (TensorFlow), topologię centrum danych i system harmonogramu. Z perspektywy ryzyka, ponieważ NVIDIA sprzedaje GPU, musi obsługiwać wszystkich klientów, co oznacza bardzo niską tolerancję na błędy. Które amerykańskie akcje kupić, jest teraz jasne.