Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Å øke ROAS med 4X med AI-agenter @leoadsai | Forrige bygde Bio AI Agents @ MGH, BMC | Forrige grunnla @profilecityhq, @nnsphere (støttet av Nvidia)
Google vil aldri selge TPU-er. I det øyeblikket Google selger TPU-er i stor skala, forvandler de sin arkitektoniske fordel til en vare.
Googles interne team har førsteordens krav på TPU-kapasitet fordi disse arbeidsbelastningene direkte genererer inntekter og strategiske gevinster. Enhver TPU som selges eksternt er en TPU som ikke brukes til å forsvare Googles primære profittmotorer.
Akkurat nå er TPU-er Googles proprietære edge, vertikale integrasjon som lar dem operere AI-infrastruktur til kostnader konkurrentene ikke kan matche. DeepMind kan bruke opp beregningsbudsjetter som ville ruinere OpenAI fordi Google ikke betaler GPU-priser i detaljhandel, men interne TPU-marginalkostnader.
Hvis Google begynner å selge TPU-er eksternt:
- De må prise konkurransedyktig sammenlignet med Nvidia-GPUer, noe som betyr å avsløre deres kostnadsstruktur. Plutselig vet alle at Googles egentlige AI-beregningskostnader ikke er magi.
- Salg av bare metal TPU-er betyr å publisere detaljerte spesifikasjoner, ytelsesbenchmarks og programmeringsgrensesnitt. Dette gir konkurrentene en plan for «hvordan Google faktisk gjør AI i stor skala.» Akkurat nå er det konkurs. I det øyeblikket det er et produkt, blir det studert, reversert og til slutt replikert.
- Google Cloud selger allerede TPU-tilgang via GCP til premiumpriser. Hvis de begynner å selge bare TPU-er, konkurrerer de med sitt eget skytilbud med høyere margin. Ingen sofistikert kjøper ville betale GCP-påslag når de kunne kjøpe TPU-er direkte og kjøre dem billigere.
GCP TPU-prisene er ikke aggressive sammenlignet med GPU-alternativer, men de er premium. Dette er ikke inkompetanse, det er bevisst priset for å motvirke massiv ekstern adopsjon. Google gjør TPU-er tilgjengelige nok for å unngå anklager om «hamstring av infrastruktur» og for å sikre seg noen skyinntekter med høy margin, men de ønsker egentlig ikke at eksterne kunder skal bruke kapasitet i stor skala.
Sammenlign dette med AWS, som selger alle brikkene de kan produsere (Graviton, Trainium, Inferentia) fordi AWS er en handelsinfrastrukturvirksomhet. Googles kjernevirksomhet er annonser og forbrukerprodukter som er avhengige av AI-infrastruktur. Å selge infrastrukturen er som McDonald's som selger forsyningskjeden sin til Burger King, selv om det genererer inntekter, styrker du konkurrentene og svekker hovedvirksomheten din.
Du kan ikke samtidig være en leverandør av standardbrikke OG samtidig opprettholde en fordel i proprietær infrastruktur. I det øyeblikket du selger, blir du til en vare. I det øyeblikket du kommersialiserer, forsvinner fordelen din.
Gitt at salg av TPU-er virker strategisk uforsvarlig, hvorfor spekuleres det i at Google uansett forfølger det? Jeg tror det er fordi skyavdelingene hos hver hyperskalerer har konstant «vi trenger differensiering»-angst, og tilpassede brikker ser ut som differensiering. Men differensiering betyr bare noe hvis det beskytter marginer eller tar eierandeler uten å ødelegge kjernevirksomheten din. At Google selger TPU-er ville være en differensiering som ødelegger mer verdi enn det skaper.
33
Nvidia betalte 3X Groqs septemberverdivurdering for å kjøpe det. Dette er strategisk kjernefysisk.
Hvert AI-laboratorium var GPU-avhengig, noe som skapte enorm konsentrasjonsrisiko. Google brøt fri med TPU-er til intern bruk, og beviste at «Nvidia eller ingenting»-narrativet var feil. Dette demonstrerte ikke bare teknisk gjennomførbarhet, det avslørte også at Nvidias vollgrav var grunnere enn markedene trodde. Når en hyperskaler lykkes med å bygge spesiallaget silisium, begynner enhver sofistikert kjøper å kjøre «bør vi bygge våre egne?»-beregninger. Dette fjerner Nvidias TAM.
Jonathan Ross (grunnleggeren av Groq) er oppfinneren av TPU. Han forsto de arkitektoniske prinsippene som gjorde ikke-GPU AI-akselerasjon levedyktig. Hans LPU-arkitektur rettet seg mot inferensarbeidsbelastning der GPU-er faktisk er overdimensjonert. Dette er viktig fordi slutning er der de virkelige pengene ligger på lang sikt. Opplæring er engangsinvestering, men slutning er gjentakende opex som skalerer med bruk. Hvis Groq beviste at LPU-er kunne oppnå konkurransedyktig pris-ytelse på inferens, ville hver skyleverandør hvitmerke arkitekturen sin. Nvidia ville blitt presset inn i «bare opplæring» mens de mister livrentestrømmen.
Det er trygt å se denne avtalen som at Nvidia forsikrer mot Groq og muliggjør et helt økosystem av Nvidia-alternativer. Men det som er mer interessant, er andreordenseffekten, kundelåsingen. Nå eier Nvidia både den etablerte standarden (CUDA + GPU) og den mest troverdige alternative arkitekturen (LPU-er). Dette er MSFT som kjøper strategisk Github-nivå. Ethvert AI-laboratorium som vurderer «bygg vs kjøp vs alternativ leverandør» står nå overfor:
- Alternativ A (Nvidia GPU-er)
- Alternativ B (Nvidia <> Groq LPU-er)
- Alternativ C (start fra bunnen av)
Ved å gjøre en konkurransetrussel om til et verktøy for kundesegmentering, er Jensen en mester i handel. De kan nå prisdiskriminere: premium-kunder betaler for GPU-er, prisfølsomme slutninger kanaliseres til LPU-er, og Nvidia fanger begge deler.
Hvis Nvidia ikke integrerer LPU-er i veikartet sitt, var dette et rent defensivt trekk. Hvis de integrerer det og begynner å tilby "GPU for trening, LPU for inferens"-pakker, blir dette et skoleeksempel på å utvide vollgraven.
Det dyreste innen teknologi er ikke å bygge fremtiden, det er å hindre noen andre i å bygge en fremtid uten deg.

36
Toppkommentarer er også bots. AI tar bokstavelig talt over.

near21. des., 03:22
søker etter "tsunami-opptak" på YouTube i 2025
nesten alle videoer er AI nå. Millioner av visninger hver
33
Topp
Rangering
Favoritter
