Google es la empresa que no carece de potencia de cálculo, y a él no le falta más que Nvidia. Incluso las GPUs NVIDIA tienen muchas probabilidades de seguir la TPU (el consenso translúcido en el círculo). 1️⃣ Núcleo tensorial La introducción completa de NVIDIA tras Volta se acerca esencialmente a la especialización de multiplicación matricial de los TPUs 2️⃣ Cálculo de baja precisión (FP16 / BF16 / INT8) TPU optimizado para baja precisión en inferencia desde el principio, y la GPU fue posteriormente "forzada" a soportar por los requisitos del modelo 3️⃣ Clúster masivo + colaboración con compiladores TPU es todo el "hardware × compilador × la planificación", y NVIDIA acaba de empezar a colaborar seriamente a nivel Triton/CUDA Graph/NVLink Nvidia gana dinero con la potencia de cálculo de chips, mientras que Google depende durante muchos años de un ecosistema estable, publicidad, motores de búsqueda, YouTube, navegadores, Android y otros fenómenos de red para suministrar sangre, y la potencia de cálculo es solo su coste, no un consumo de beneficios. TPU siempre ha sido la investigación integral de Google que permite realizar investigaciones y revocaciones lo suficientemente largas. La comprensión de Jeff Dean sobre TPU es que si el modelo lo defines tú, entonces el hardware también debería ser definido por ti, así que TPU es un conjunto completo de ingeniería de sistemas desde el compilador (XLA), grafo computacional (TensorFlow), topología de centros de datos y sistema de planificación En cuanto al riesgo, dado que NVIDIA vende GPUs, debe atender a todos los clientes, y la tolerancia a fallos es extremadamente baja. Cuál acción estadounidense comprar está claro de nuevo