O Google é a empresa que menos carece de poder de cálculo, ele tem até mais do que a NVIDIA. Até mesmo as GPUs da NVIDIA provavelmente seguem o caminho das TPUs (isso é um consenso semi-transparente no setor). 1️⃣ Núcleos de tensor (Tensor Core) A NVIDIA introduziu isso de forma abrangente após a Volta, essencialmente se aproximando da especialização em multiplicação de matrizes das TPUs. 2️⃣ Cálculo de baixa precisão (FP16 / BF16 / INT8) As TPUs otimizaram a baixa precisão para inferência muito antes, enquanto as GPUs foram forçadas a suportar isso mais tarde devido à demanda dos modelos. 3️⃣ Grande cluster + colaboração do compilador As TPUs são um sistema integrado de "hardware × compilador × agendamento", enquanto a NVIDIA apenas começou a levar a sério a colaboração em nível de Triton / CUDA Graph / NVLink. A NVIDIA ganha dinheiro com o poder de cálculo dos chips, enquanto o Google se sustenta com um ecossistema estável ao longo dos anos, com publicidade, motores de busca, YouTube, navegadores, Android e outros fenômenos da internet, onde o poder de cálculo é apenas um custo, não um consumo de lucro. As TPUs sempre foram desenvolvidas internamente pelo Google, permitindo um tempo de pesquisa e revisão suficientemente longo. A compreensão de Jeff Dean sobre as TPUs é que, se o modelo é definido por você, então o hardware também deve ser definido por você, portanto, as TPUs são um projeto de sistema completo que inclui compiladores (XLA), gráficos computacionais (TensorFlow), topologia de data centers e sistemas de agendamento. Em termos de risco, como a NVIDIA vende GPUs, ela deve atender a todos os clientes, o que resulta em uma taxa de tolerância a falhas muito baixa. Agora ficou claro qual ação americana comprar.