Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Creșterea ROAS-ului cu 4X cu AI Agents @leoadsai | Bio AI Agents construite anterior @ MGH, BMC | Prev a fondat @profilecityhq, @nnsphere (susținut de Nvidia)
Google nu va vinde niciodată TPU-uri. În momentul în care Google vinde TPU-uri la scară largă, își transformă avantajul arhitectural într-o marfă.
Echipele interne ale Google au revendicări de prim ordin privind capacitatea TPU-urilor deoarece aceste sarcini generează direct venituri și șanțuri strategice. Orice TPU vândut extern este un TPU care nu este folosit pentru a apăra principalele motoare de profit ale Google.
În prezent, TPU-urile sunt o integrare verticală proprietară a Google, care le permite să opereze infrastructura AI la costuri pe care concurenții nu le pot egala. DeepMind poate consuma bugete de calcul care ar duce la faliment OpenAI pentru că Google nu plătește prețurile GPU-urilor de retail, ci plătește costuri marginale interne TPU.
Dacă Google începe să vândă TPU-uri extern:
- Trebuie să stabilească prețuri competitive față de GPU-urile Nvidia, ceea ce înseamnă să-și dezvăluie structura de costuri. Dintr-o dată, toată lumea știe că adevăratele costuri de calcul AI ale Google nu sunt magice.
- Vânzarea TPU-urilor bare metal înseamnă publicarea specificațiilor detaliate, benchmark-urilor de performanță și interfețelor de programare. Aceasta oferă concurenților un plan pentru "cum Google face de fapt AI la scară largă". Acum, asta e proprietar. În momentul în care devine un produs, acesta devine studiat, inginerie inversă și, în cele din urmă, replicat.
- Google Cloud vinde deja acces TPU prin GCP la prețuri premium. Dacă încep să vândă TPU-uri goale, concurează cu propria lor ofertă cloud cu marjă mai mare. Niciun cumpărător sofisticat nu ar plăti adaosul GCP când ar putea cumpăra TPU-uri direct și să le folosească mai ieftin.
Prețul TPU GCP nu este competitiv comparativ cu alternativele pentru GPU, dar este premium. Aceasta nu este incompetență, este prețuită intenționat pentru a descuraja adoptarea externă în masă. Google pune la dispoziție TPU-urile suficient de mult pentru a evita acuzațiile de "acumulare a infrastructurii antitrust" și pentru a capta unele venituri cloud cu marjă mare, dar nu doresc de fapt ca clienții externi să consume capacitate la scară largă.
Compară asta cu AWS, care vinde orice cip pe care îl poate fabrica (Graviton, Trainium, Inferentia), pentru că AWS este o afacere de infrastructură de tip commodity infrastructure. Activitatea principală a Google este formată din reclame și produse de consum care se bazează pe infrastructura AI. Vânzarea infrastructurii este ca și cum McDonald's și-ar vinde lanțul de aprovizionare către Burger King, chiar dacă generează venituri, întărești concurenții și slăbești afacerea ta principală.
Nu poți fi simultan un vânzător de cipuri commodity ȘI să menții avantajul infrastructurii proprietare. În momentul în care vinzi, te transformi în marfă. În momentul în care te transformi în marfă, avantajul tău dispare.
Având în vedere că vânzarea TPU-urilor pare nesigură din punct de vedere strategic, de ce există speculații că Google ar urma totuși acest proiect? Cred că pentru că diviziile cloud de la fiecare hyperscaler au o anxietate perpetuă de tipul "avem nevoie de diferențiere", iar cipurile personalizate arată ca diferențiere. Dar diferențierea contează doar dacă protejează marjele sau capturează acțiuni fără a-ți distruge afacerea de bază. Vânzarea TPU-urilor de către Google ar fi o diferențiere care distruge mai multă valoare decât creează.
19
Nvidia a plătit de 3 ori evaluarea din septembrie a Groq pentru a o achiziționa. Acest lucru este strategic nuclear.
Fiecare laborator AI depindea de GPU, ceea ce crea un risc masiv de concentrare. Google s-a eliberat de TPU-urile pentru uz intern, demonstrând că narațiunea "Nvidia sau nimic" era falsă. Acest lucru nu a demonstrat doar fezabilitatea tehnică, ci a arătat că șanțul Nvidia era mai puțin adânc decât credeau piețele. Când un hyperscaler reușește să construiască siliciu personalizat, fiecare cumpărător sofisticat începe să facă calcule de tipul "ar trebui să ne construim propriile calcule?". Aceasta scade TAM-ul Nvidia.
Jonathan Ross (fondatorul Groq) este inventatorul TPU. A înțeles principiile arhitecturale care făceau viabilă accelerarea AI non-GPU. Arhitectura lui LPU viza sarcini de inferență acolo unde GPU-urile sunt de fapt supra-inginere. Acest lucru contează pentru că inferența este locul unde se află banii reali pe termen lung. Antrenamentul este un capex de o singură dată, dar inferența este opex recurent care scalează odată cu folosirea. Dacă Groq ar demonstra că LPU-urile pot atinge un raport-preț-performanță competitiv prin inferență, fiecare furnizor de cloud și-ar marca arhitectura cu etichetă albă. Nvidia ar fi fost constrâns în "doar antrenament" în timp ce pierdea fluxul de anuități.
Este sigur să vedem acest acord ca pe o asigurare Nvidia împotriva Groq, care permite un întreg ecosistem de alternative Nvidia. Dar ceea ce este și mai interesant este efectul de ordinul doi, blocarea clientului. Acum, Nvidia deține atât standardul existent (CUDA + GPU), cât și cea mai credibilă arhitectură alternativă (LPU-uri). Aceasta este o strategie la nivel Github de către MSFT. Orice laborator AI care evaluează "build vs buy vs alternative vendor" se confruntă acum cu următoarea:
- Opțiunea A (GPU-uri Nvidia)
- Opțiunea B (LPU-uri Nvidia <> Groq)
- Opțiunea C (începe de la zero)
Transformând o amenințare competitivă într-un instrument de segmentare a clienților, Jensen este maestrul meseriilor. Acum pot discrimina prețul: clienții premium plătesc pentru GPU-uri, inferența sensibilă la preț este direcționată către LPU-uri, iar Nvidia captează ambele.
Dacă Nvidia nu integrează LPU-urile în foaia sa de parcurs, aceasta a fost o mișcare pur defensivă. Dacă îl integrează și încep să ofere pachete "GPU pentru antrenament, LPU pentru inferență", acest lucru devine o achiziție clasică care lărgește șanțul.
Cel mai scump lucru din tehnologie nu este construirea viitorului, ci împiedicarea cuiva să-și construiască un viitor fără tine.

22
Comentariile de top sunt și boți. AI-ul preia literalmente controlul.

near21 dec., 03:22
căutând "Tsunami Footage" pe YouTube în 2025
aproape fiecare videoclip este acum AI. milioane de vizualizări fiecare
19
Limită superioară
Clasament
Favorite
