Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Google es la empresa que no carece de potencia de cálculo, y a él no le falta más que Nvidia.
Incluso las GPUs NVIDIA tienen muchas probabilidades de seguir la TPU (el consenso translúcido en el círculo).
1️⃣ Núcleo tensorial
La introducción completa de NVIDIA tras Volta se acerca esencialmente a la especialización de multiplicación matricial de los TPUs
2️⃣ Cálculo de baja precisión (FP16 / BF16 / INT8)
TPU optimizado para baja precisión en inferencia desde el principio, y la GPU fue posteriormente "forzada" a soportar por los requisitos del modelo
3️⃣ Clúster masivo + colaboración con compiladores
TPU es todo el "hardware × compilador × la planificación", y NVIDIA acaba de empezar a colaborar seriamente a nivel Triton/CUDA Graph/NVLink
Nvidia gana dinero con la potencia de cálculo de chips, mientras que Google depende durante muchos años de un ecosistema estable, publicidad, motores de búsqueda, YouTube, navegadores, Android y otros fenómenos de red para suministrar sangre, y la potencia de cálculo es solo su coste, no un consumo de beneficios.
TPU siempre ha sido la investigación integral de Google que permite realizar investigaciones y revocaciones lo suficientemente largas.
La comprensión de Jeff Dean sobre TPU es que si el modelo lo defines tú, entonces el hardware también debería ser definido por ti, así que TPU es un conjunto completo de ingeniería de sistemas desde el compilador (XLA), grafo computacional (TensorFlow), topología de centros de datos y sistema de planificación
En cuanto al riesgo, dado que NVIDIA vende GPUs, debe atender a todos los clientes, y la tolerancia a fallos es extremadamente baja.
Cuál acción estadounidense comprar está claro de nuevo
Populares
Ranking
Favoritas
