Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O Google é a empresa que menos carece de poder de cálculo, ele tem até mais do que a NVIDIA.
Até mesmo as GPUs da NVIDIA provavelmente seguem o caminho das TPUs (isso é um consenso semi-transparente no setor).
1️⃣ Núcleos de tensor (Tensor Core)
A NVIDIA introduziu isso de forma abrangente após a Volta, essencialmente se aproximando da especialização em multiplicação de matrizes das TPUs.
2️⃣ Cálculo de baixa precisão (FP16 / BF16 / INT8)
As TPUs otimizaram a baixa precisão para inferência muito antes, enquanto as GPUs foram forçadas a suportar isso mais tarde devido à demanda dos modelos.
3️⃣ Grande cluster + colaboração do compilador
As TPUs são um sistema integrado de "hardware × compilador × agendamento", enquanto a NVIDIA apenas começou a levar a sério a colaboração em nível de Triton / CUDA Graph / NVLink.
A NVIDIA ganha dinheiro com o poder de cálculo dos chips, enquanto o Google se sustenta com um ecossistema estável ao longo dos anos, com publicidade, motores de busca, YouTube, navegadores, Android e outros fenômenos da internet, onde o poder de cálculo é apenas um custo, não um consumo de lucro.
As TPUs sempre foram desenvolvidas internamente pelo Google, permitindo um tempo de pesquisa e revisão suficientemente longo.
A compreensão de Jeff Dean sobre as TPUs é que, se o modelo é definido por você, então o hardware também deve ser definido por você, portanto, as TPUs são um projeto de sistema completo que inclui compiladores (XLA), gráficos computacionais (TensorFlow), topologia de data centers e sistemas de agendamento.
Em termos de risco, como a NVIDIA vende GPUs, ela deve atender a todos os clientes, o que resulta em uma taxa de tolerância a falhas muito baixa.
Agora ficou claro qual ação americana comprar.
Top
Classificação
Favoritos
