Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Öka ROAS med 4X med AI-agenter @leoadsai | Tidigare byggda Bio AI Agents @ MGH, BMC | Tidigare grundade @profilecityhq, @nnsphere (med stöd av Nvidia)
Google kommer aldrig att sälja TPU:er. I samma ögonblick som Google säljer TPU:er i stor skala förvandlar de sin arkitektoniska fördel till en råvara.
Googles interna team har förstahandsanspråk på TPU-kapacitet eftersom dessa arbetsbelastningar direkt genererar intäkter och strategiska vinstgravar. Alla TPU:er som säljs externt är en TPU som inte används för att försvara Googles primära vinstmotorer.
Just nu är TPU:er Googles proprietära edge, vertikal integration som låter dem driva AI-infrastruktur till kostnader som konkurrenterna inte kan matcha. DeepMind kan förbruka beräkningsbudgetar som skulle göra OpenAI bankrutt eftersom Google inte betalar butikspriser för GPU:n, utan för interna TPU:s marginalkostnad.
Om Google börjar sälja TPU:er externt:
- De måste prissätta konkurrenskraftigt jämfört med Nvidia-GPU:er, vilket innebär att deras kostnadsstruktur avslöjas. Plötsligt vet alla att Googles verkliga AI-beräkningskostnader inte är magiska.
- Att sälja bare metal-TPU:er innebär att publicera detaljerade specifikationer, prestandabenchmarks och programmeringsgränssnitt. Detta ger konkurrenterna en ritning för "hur Google faktiskt gör AI i stor skala." Just nu är det proprietärt. Så fort det är en produkt blir den studerad, bakåtkonstruerad och så småningom replikerad.
- Google Cloud säljer redan TPU-åtkomst via GCP till premiumpriser. Om de börjar sälja tomma TPU:er konkurrerar de med sitt eget molnerbjudande med högre marginal. Ingen sofistikerad köpare skulle betala GCP-påslag när de kunde köpa TPU:er direkt och köra dem billigare.
GCP TPU-prissättningen är inte aggressiv jämfört med GPU-alternativ, men den är premium. Detta är inte inkompetens, det är avsiktligt prissatt för att avskräcka massiv extern adoption. Google gör TPU:er tillräckligt tillgängliga för att undvika anklagelser om "hamstringsinfrastruktur" och för att fånga viss högmarginal molnintäkter, men de vill egentligen inte att externa kunder ska använda kapacitet i stor skala.
Jämför detta med AWS, som säljer alla chip de kan tillverka (Graviton, Trainium, Inferentia) eftersom AWS är en handelsinfrastrukturverksamhet. Googles kärnverksamhet är annonser och konsumentprodukter som är beroende av AI-infrastruktur. Att sälja infrastrukturen är som att McDonald's säljer sin leveranskedja till Burger King, även om det genererar intäkter stärker du konkurrenterna och försvagar din huvudsakliga verksamhet.
Du kan inte samtidigt vara en leverantör av standardchip OCH samtidigt behålla fördelen av proprietär infrastruktur. I samma ögonblick som du säljer blir du till en varu. I samma ögonblick som du kommersialiserar försvinner din fördel.
Med tanke på att försäljning av TPU:er verkar strategiskt osund, varför spekuleras det i att Google ändå satsar på det? Jag tror att det beror på att molnavdelningar på varje hyperskalare ständigt har en "vi behöver differentiering"-oro, och specialanpassade chip ser ut som differentiering. Men differentiering spelar bara roll om det skyddar marginaler eller tar emot andelar utan att förstöra din kärnverksamhet. Att Google säljer TPU:er skulle vara en differentiering som förstör mer värde än det skapar.
59
Nvidia betalade 3X Groqs septembervärdering för att förvärva det. Detta är strategiskt kärnvapen.
Varje AI-labb var GPU-beroende, vilket skapade en enorm koncentrationsrisk. Google bröt sig loss med TPU:er för internt bruk och bevisade att "Nvidia eller inget"-berättelsen var falsk. Detta visade inte bara teknisk genomförbarhet, det visade också att Nvidias vallgrav var grundare än vad marknaderna trodde. När en hyperskalare framgångsrikt bygger specialbyggt kisel börjar varje sofistikerad köpare köra "ska vi bygga våra egna?"-beräkningar. Detta tar bort Nvidias TAM.
Jonathan Ross (Groqs grundare) är uppfinnaren av TPU. Han förstod de arkitektoniska principer som gjorde AI-acceleration utan GPU möjlig. Hans LPU-arkitektur riktade sig mot inferensarbetsbelastning där GPU:er faktiskt är överdimensionerade. Detta är viktigt eftersom inferens är där de riktiga pengarna finns långsiktigt. Utbildning är engångsinvesteringar, men inferens är återkommande opex som skalar med användningen. Om Groq bevisade att LPU:er kan nå konkurrenskraftigt pris-prestanda på inferens, skulle varje molnleverantör whitelabel:a sin arkitektur. Nvidia skulle bli instängda i "bara träning" samtidigt som de förlorar livränteströmmen.
Det är säkert att se detta avtal som att Nvidia försäkrar mot Groq och möjliggör ett helt ekosystem av Nvidia-alternativ. Men det som är mer intressant är andrahandseffekten, kundlock-ins. Nu äger Nvidia både den etablerade standarden (CUDA + GPU) och den mest trovärdiga alternativa arkitekturen (LPU:er). Det här är MSFT som köper Github-nivå strategiskt. Alla AI-labb som utvärderar "bygg vs köp vs alternativ leverantör" står nu inför:
- Alternativ A (Nvidia GPU:er)
- Alternativ B (Nvidia <> Groq LPU:er)
- Alternativ C (börja från början)
Genom att förvandla ett konkurrenshot till ett verktyg för kundsegmentering är Jensen mästare på trades. De kan nu prisskilja: premiumkunder betalar för GPU:er, priskänsliga inferenser kanaliseras till LPU:er, och Nvidia fångar upp båda.
Om Nvidia inte integrerar LPU:er i sin färdplan var detta ett rent defensivt drag. Om de integrerar det och börjar erbjuda "GPU för träning, LPU för inferens"-paket, blir detta ett skolboksexempel på att bredda vallgraven.
Det dyraste inom teknik är inte att bygga framtiden, utan att förhindra någon annan från att bygga en framtid utan dig.

67
Toppkommentarer är också bottar. AI tar bokstavligen över.

near21 dec. 03:22
söker efter "tsunami-material" på YouTube år 2025
nästan varje video är AI nu. Miljontals visningar var och en
63
Topp
Rankning
Favoriter
