Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Aumentar o ROAS em 4X com Agentes de IA @leoadsai | Bio AI Agents construídos anteriormente @ MGH, BMC | Prev fundou @profilecityhq, @nnsphere (apoiado pela Nvidia)
O Google nunca venderá TPUs. No momento em que o Google vender TPUs em grande escala, transforma sua vantagem arquitetônica em uma mercadoria.
As equipes internas do Google têm reivindicações de primeira ordem sobre a capacidade de TPU porque essas cargas de trabalho geram diretamente receita e fossos estratégicos. Qualquer TPU vendido externamente é um TPU não utilizado para defender os principais motores de lucro do Google.
Neste momento, os TPUs são a vantagem proprietária do Google, uma integração vertical que lhes permite operar a infraestrutura de IA a custos que os concorrentes não conseguem igualar. A DeepMind pode consumir orçamentos de computação que faliriam a OpenAI porque o Google não paga preços de GPU de varejo, eles pagam o custo marginal interno de TPU.
Se o Google começar a vender TPUs externamente:
- Eles terão que precificar competitivamente em relação às GPUs da Nvidia, o que significa revelar sua estrutura de custos. De repente, todos saberão que os verdadeiros custos de computação de IA do Google não são mágicos.
- Vender TPUs bare metal significa publicar especificações detalhadas, benchmarks de desempenho e interfaces de programação. Isso é entregar aos concorrentes um plano de "como o Google realmente faz IA em grande escala." Neste momento, isso é proprietário. No momento em que se torna um produto, passa a ser estudado, desmontado e, eventualmente, replicado.
- O Google Cloud já vende acesso a TPU via GCP a preços premium. Se eles começarem a vender TPUs bare, estarão competindo com sua própria oferta de nuvem de maior margem. Nenhum comprador sofisticado pagaria o markup do GCP quando poderia comprar TPUs diretamente e executá-los mais barato.
A precificação do GCP TPU não é agressiva em comparação com alternativas de GPU, mas é premium. Isso não é incompetência, é intencionalmente precificado para desencorajar a adoção externa maciça. O Google torna os TPUs disponíveis o suficiente para evitar acusações de antitruste de "acumulação de infraestrutura" e para capturar alguma receita de nuvem de alta margem, mas eles realmente não querem que clientes externos consumam capacidade em grande escala.
Compare isso com a AWS, que vende todos os chips que consegue fabricar (Graviton, Trainium, Inferentia) porque a AWS é um negócio de infraestrutura de mercadoria. O negócio principal do Google é anúncios e produtos de consumo que dependem da infraestrutura de IA. Vender a infraestrutura é como o McDonald's vender sua cadeia de suprimentos para o Burger King, mesmo que gere receita, você está fortalecendo os concorrentes e enfraquecendo seu negócio principal.
Você não pode ser simultaneamente um vendedor de chips de mercadoria E manter uma vantagem de infraestrutura proprietária. No momento em que você vende, você commoditiza. No momento em que você commoditiza, sua vantagem evapora.
Dado que vender TPUs parece estrategicamente insensato, por que há especulação de que o Google persiga isso de qualquer maneira? Eu acho que porque as divisões de nuvem em cada hyperscaler têm uma ansiedade perpétua de "precisamos de diferenciação", e chips personalizados parecem ser diferenciação. Mas a diferenciação só importa se proteger margens ou capturar participação sem destruir seu negócio principal. Vender TPUs pelo Google seria uma diferenciação que destrói mais valor do que cria.
17
A Nvidia pagou 3 vezes a avaliação de setembro da Groq para adquiri-la. Isto é estrategicamente nuclear.
Todos os laboratórios de IA eram dependentes de GPU, criando um enorme risco de concentração. O Google libertou-se com TPUs para uso interno, provando que a narrativa "Nvidia ou nada" era falsa. Isso não apenas demonstrou a viabilidade técnica, mas revelou que a barreira de entrada da Nvidia era mais rasa do que os mercados acreditavam. Quando um hyperscaler constrói com sucesso silício personalizado, cada comprador sofisticado começa a fazer cálculos de "devemos construir o nosso próprio?". Isso reduz o TAM da Nvidia.
Jonathan Ross (fundador da Groq) é o inventor do TPU. Ele compreendeu os princípios arquitetônicos que tornaram a aceleração de IA não-GPU viável. Sua arquitetura LPU visava cargas de trabalho de inferência onde as GPUs estão, na verdade, superdimensionadas. Isso é importante porque a inferência é onde está o verdadeiro dinheiro a longo prazo. O treinamento é um capex único, mas a inferência é um opex recorrente que escala com o uso. Se a Groq provou que os LPUs poderiam atingir um desempenho de preço competitivo em inferência, cada provedor de nuvem iria rotular sua arquitetura como própria. A Nvidia seria pressionada a "apenas treinamento" enquanto perde a receita de anuidade.
É seguro ver este negócio como a Nvidia se protegendo contra a Groq permitindo um ecossistema inteiro de alternativas à Nvidia. Mas o que é mais interessante é o efeito de segunda ordem, os bloqueios de clientes. Agora, a Nvidia possui tanto o padrão incumbente (CUDA + GPU) quanto a arquitetura alternativa mais credível (LPUs). Isso é estratégico ao nível da compra do Github pela MSFT. Qualquer laboratório de IA avaliando "construir vs comprar vs fornecedor alternativo" agora enfrenta:
- Opção A (GPUs Nvidia)
- Opção B (Nvidia <> LPUs Groq)
- Opção C (começar do zero)
Transformando uma ameaça competitiva em uma ferramenta de segmentação de clientes, Jensen é o mestre das negociações. Eles podem agora discriminar preços: clientes premium pagam por GPUs, a inferência sensível ao preço é canalizada para LPUs, e a Nvidia captura ambos.
Se a Nvidia não integrar os LPUs em seu roteiro, isso foi um movimento puramente defensivo. Se eles integrarem e começarem a oferecer pacotes "GPU para treinamento, LPU para inferência", isso se torna uma aquisição que amplia a barreira de entrada, digna de um manual.
A coisa mais cara na tecnologia não é construir o futuro, é impedir que outra pessoa construa um futuro sem você.

20
os comentários mais populares também são bots. a IA está literalmente a tomar conta.

near21/12, 03:22
procurando por "filmagens de tsunami" no YouTube em 2025
quase todos os vídeos são de IA agora. milhões de visualizações cada um
17
Top
Classificação
Favoritos
