Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Aumentare il ROAS di 4X con AI Agents @leoadsai | Bio AI Agents pre-costruiti @ MGH, BMC | Prev ha fondato @profilecityhq, @nnsphere (supportato da Nvidia)
Google non venderà mai i TPU. Nel momento in cui Google vende i TPU su larga scala, trasforma il suo vantaggio architettonico in una merce.
I team interni di Google hanno diritti di primo ordine sulla capacità dei TPU perché quei carichi di lavoro generano direttamente entrate e fossati strategici. Qualsiasi TPU venduto esternamente è un TPU non utilizzato per difendere i principali motori di profitto di Google.
In questo momento, i TPU sono il vantaggio proprietario di Google, un'integrazione verticale che consente loro di gestire l'infrastruttura AI a costi che i concorrenti non possono eguagliare. DeepMind può bruciare budget di calcolo che porterebbero alla bancarotta OpenAI perché Google non paga i prezzi al dettaglio delle GPU, paga il costo marginale interno dei TPU.
Se Google inizia a vendere TPU esternamente:
- Devono fissare prezzi competitivi rispetto alle GPU Nvidia, il che significa rivelare la loro struttura dei costi. Improvvisamente, tutti sanno che i veri costi di calcolo AI di Google non sono magia.
- Vendere TPU bare metal significa pubblicare specifiche dettagliate, benchmark di prestazioni e interfacce di programmazione. Questo significa dare ai concorrenti un progetto su "come Google fa realmente AI su larga scala." In questo momento, è proprietario. Nel momento in cui diventa un prodotto, viene studiato, ingegnerizzato a ritroso e infine replicato.
- Google Cloud già vende accesso ai TPU tramite GCP a prezzi premium. Se iniziano a vendere TPU bare, stanno competendo con la loro offerta cloud a margine più elevato. Nessun acquirente sofisticato pagherebbe il sovrapprezzo GCP quando potrebbe acquistare i TPU direttamente e gestirli a un costo inferiore.
I prezzi dei TPU GCP non sono aggressivi rispetto alle alternative GPU, ma sono premium. Questo non è incompetenza, è intenzionalmente fissato per scoraggiare una massiccia adozione esterna. Google rende i TPU disponibili a sufficienza per evitare accuse di antitrust di "accaparramento di infrastrutture" e per catturare alcune entrate cloud ad alto margine, ma in realtà non vogliono clienti esterni che consumano capacità su larga scala.
Confronta questo con AWS, che vende ogni chip che possono fabbricare (Graviton, Trainium, Inferentia) perché AWS è un'azienda di infrastruttura di commodity. Il core business di Google è la pubblicità e i prodotti di consumo che dipendono dall'infrastruttura AI. Vendere l'infrastruttura è come se McDonald's vendesse la propria catena di approvvigionamento a Burger King, anche se genera entrate, stai rafforzando i concorrenti e indebolendo il tuo business principale.
Non puoi essere contemporaneamente un venditore di chip di commodity E mantenere un vantaggio infrastrutturale proprietario. Nel momento in cui vendi, commoditizzi. Nel momento in cui commoditizzi, il tuo vantaggio evapora.
Dato che vendere TPU sembra strategicamente insensato, perché ci sono speculazioni che Google lo persegua comunque? Penso perché le divisioni cloud di ogni hyperscaler hanno un'ansia perpetua di "abbiamo bisogno di differenziazione", e i chip personalizzati sembrano differenziazione. Ma la differenziazione conta solo se protegge i margini o cattura quote senza distruggere il tuo business principale. Vendere TPU da parte di Google sarebbe una differenziazione che distrugge più valore di quanto ne crea.
23
Nvidia ha pagato 3 volte la valutazione di settembre di Groq per acquisirlo. Questo è strategicamente nucleare.
Ogni laboratorio di AI era dipendente dalle GPU, creando un enorme rischio di concentrazione. Google si è liberato con i TPU per uso interno, dimostrando che la narrativa "Nvidia o niente" era falsa. Questo non ha solo dimostrato la fattibilità tecnica, ma ha rivelato che il vantaggio competitivo di Nvidia era più superficiale di quanto i mercati credessero. Quando un hyperscaler costruisce con successo silicio personalizzato, ogni acquirente sofisticato inizia a fare calcoli su "dovremmo costruire il nostro?". Questo riduce il TAM di Nvidia.
Jonathan Ross (fondatore di Groq) è l'inventore del TPU. Ha compreso i principi architettonici che hanno reso possibile l'accelerazione AI non basata su GPU. La sua architettura LPU mirava a carichi di lavoro di inferenza dove le GPU sono effettivamente sovradimensionate. Questo è importante perché l'inferenza è dove ci sono i veri guadagni a lungo termine. L'addestramento è un capex una tantum, ma l'inferenza è un opex ricorrente che scala con l'uso. Se Groq dimostrasse che le LPU potrebbero raggiungere un rapporto prezzo-prestazioni competitivo nell'inferenza, ogni fornitore di cloud etichettarebbe la propria architettura. Nvidia verrebbe schiacciata in "solo addestramento" mentre perde il flusso di rendita.
È sicuro vedere questo accordo come Nvidia che si assicura contro Groq che abilita un intero ecosistema di alternative a Nvidia. Ma ciò che è più interessante è l'effetto di secondo ordine, i lock-in dei clienti. Ora, Nvidia possiede sia lo standard di riferimento (CUDA + GPU) che l'architettura alternativa più credibile (LPU). Questo è strategicamente simile all'acquisto di Github da parte di MSFT. Qualsiasi laboratorio di AI che valuta "costruire vs comprare vs fornitore alternativo" ora si trova di fronte a:
- Opzione A (GPU Nvidia)
- Opzione B (Nvidia <> LPU Groq)
- Opzione C (partire da zero)
Trasformando una minaccia competitiva in uno strumento di segmentazione dei clienti, Jensen è il maestro delle trattative. Possono ora discriminare i prezzi: i clienti premium pagano per le GPU, l'inferenza sensibile al prezzo viene canalizzata verso le LPU, e Nvidia cattura entrambi.
Se Nvidia non integra le LPU nella sua roadmap, questa è stata una pura mossa difensiva. Se le integrano e iniziano a offrire pacchetti "GPU per l'addestramento, LPU per l'inferenza", questa diventa un'acquisizione che amplia il vantaggio competitivo secondo i testi.
La cosa più costosa nella tecnologia non è costruire il futuro, ma prevenire che qualcun altro costruisca un futuro senza di te.

26
i commenti migliori sono bot anche. l'IA sta letteralmente prendendo il controllo.

near21 dic, 03:22
cercando "filmati di tsunami" su YouTube nel 2025
quasi ogni video è AI ora. milioni di visualizzazioni ciascuno
23
Principali
Ranking
Preferiti
