Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Augmenter le ROAS de 4X avec les agents IA @leoadsai | Agents bioIA construits précédemment @ MGH, BMC | Prev a fondé @profilecityhq, @nnsphere (soutenu par Nvidia)
Google ne vendra jamais de TPU. Au moment où Google vend des TPU à grande échelle, il transforme son avantage architectural en une marchandise.
Les équipes internes de Google ont des droits de premier ordre sur la capacité des TPU car ces charges de travail génèrent directement des revenus et des fossés stratégiques. Tout TPU vendu à l'extérieur est un TPU non utilisé pour défendre les principaux moteurs de profit de Google.
En ce moment, les TPU sont l'avantage exclusif de Google, une intégration verticale qui leur permet d'exploiter une infrastructure d'IA à des coûts que les concurrents ne peuvent égaler. DeepMind peut brûler des budgets de calcul qui feraient faillite à OpenAI parce que Google ne paie pas les prix de détail des GPU, ils paient le coût marginal interne des TPU.
Si Google commence à vendre des TPU à l'extérieur :
- Ils doivent se positionner de manière compétitive par rapport aux GPU Nvidia, ce qui signifie révéler leur structure de coûts. Soudain, tout le monde sait que les véritables coûts de calcul d'IA de Google ne sont pas magiques.
- Vendre des TPU bare metal signifie publier des spécifications détaillées, des benchmarks de performance et des interfaces de programmation. C'est donner aux concurrents un plan pour "comment Google fait réellement de l'IA à grande échelle." En ce moment, c'est exclusif. Au moment où c'est un produit, il devient étudié, rétro-conçu et finalement reproduit.
- Google Cloud vend déjà l'accès aux TPU via GCP à des prix premium. S'ils commencent à vendre des TPU bare, ils se concurrencent eux-mêmes avec leur propre offre cloud à marge plus élevée. Aucun acheteur sophistiqué ne paierait la majoration GCP quand il pourrait acheter des TPU directement et les faire fonctionner moins cher.
La tarification des TPU GCP n'est pas agressive par rapport aux alternatives GPU, mais elle est premium. Ce n'est pas de l'incompétence, c'est intentionnellement tarifé pour décourager une adoption massive externe. Google rend les TPU suffisamment disponibles pour éviter les accusations d'antitrust de "stockage d'infrastructure" et pour capturer des revenus cloud à forte marge, mais ils ne veulent pas réellement que des clients externes consomment de la capacité à grande échelle.
Comparez cela à AWS, qui vend chaque puce qu'ils peuvent fabriquer (Graviton, Trainium, Inferentia) parce qu'AWS est une entreprise d'infrastructure de marchandise. Le cœur de métier de Google est la publicité et les produits de consommation qui dépendent de l'infrastructure d'IA. Vendre l'infrastructure, c'est comme si McDonald's vendait sa chaîne d'approvisionnement à Burger King, même si cela génère des revenus, vous renforcez les concurrents et affaiblissez votre activité principale.
Vous ne pouvez pas simultanément être un vendeur de puces de marchandise ET maintenir un avantage d'infrastructure exclusif. Au moment où vous vendez, vous commodifiez. Au moment où vous commodifiez, votre avantage s'évapore.
Étant donné que vendre des TPU semble stratégiquement peu judicieux, pourquoi y a-t-il des spéculations selon lesquelles Google le poursuivrait quand même ? Je pense que c'est parce que les divisions cloud de chaque hyperscaler ont une anxiété perpétuelle de "nous avons besoin de différenciation", et les puces personnalisées ressemblent à une différenciation. Mais la différenciation n'a d'importance que si elle protège les marges ou capture des parts sans détruire votre activité principale. Vendre des TPU par Google serait une différenciation qui détruit plus de valeur qu'elle n'en crée.
55
Nvidia a payé 3 fois la valorisation de Groq en septembre pour l'acquérir. C'est stratégiquement nucléaire.
Chaque laboratoire d'IA dépendait des GPU, créant un risque de concentration massif. Google s'est libéré avec des TPU pour un usage interne, prouvant que le récit "Nvidia ou rien" était faux. Cela n'a pas seulement démontré la faisabilité technique, cela a révélé que le fossé de Nvidia était moins profond que ce que les marchés croyaient. Lorsqu'un hyperscaler construit avec succès des silicones personnalisés, chaque acheteur sophistiqué commence à se poser la question : "devrions-nous construire le nôtre ?". Cela réduit le TAM de Nvidia.
Jonathan Ross (le fondateur de Groq) est l'inventeur du TPU. Il a compris les principes architecturaux qui ont rendu l'accélération AI non-GPU viable. Son architecture LPU ciblait les charges de travail d'inférence où les GPU sont en réalité surdimensionnés. Cela compte parce que l'inférence est là où se trouve l'argent à long terme. L'entraînement est un capex unique, mais l'inférence est un opex récurrent qui évolue avec l'utilisation. Si Groq prouve que les LPU peuvent atteindre un rapport qualité-prix compétitif sur l'inférence, chaque fournisseur de cloud pourrait proposer son architecture en marque blanche. Nvidia serait contraint de se concentrer sur "juste l'entraînement" tout en perdant le flux de revenus récurrents.
Il est raisonnable de voir cet accord comme Nvidia s'assurant contre Groq permettant un écosystème entier d'alternatives à Nvidia. Mais ce qui est plus intéressant, ce sont les effets de second ordre, les verrouillages de clients. Maintenant, Nvidia possède à la fois la norme en place (CUDA + GPU) et l'architecture alternative la plus crédible (LPU). C'est stratégique au niveau de l'achat de Github par MSFT. Tout laboratoire d'IA évaluant "construire vs acheter vs fournisseur alternatif" fait maintenant face à :
- Option A (GPU Nvidia)
- Option B (Nvidia <> LPU Groq)
- Option C (partir de zéro)
Transformant une menace concurrentielle en un outil de segmentation de clients, Jensen est le maître des échanges. Ils peuvent maintenant pratiquer la discrimination tarifaire : les clients premium paient pour les GPU, l'inférence sensible au prix est dirigée vers les LPU, et Nvidia capture les deux.
Si Nvidia n'intègre pas les LPU dans sa feuille de route, c'était un pur jeu défensif. S'ils l'intègrent et commencent à offrir des bundles "GPU pour l'entraînement, LPU pour l'inférence", cela devient une acquisition élargissant le fossé selon les manuels.
La chose la plus coûteuse dans la technologie n'est pas de construire l'avenir, mais d'empêcher quelqu'un d'autre de construire un avenir sans vous.

53
les meilleurs commentaires sont aussi des bots. l'IA prend littéralement le contrôle.

near21 déc., 03:22
chercher "vidéos de tsunami" sur YouTube en 2025
presque chaque vidéo est maintenant de l'IA. des millions de vues chacune
59
Meilleurs
Classement
Favoris
