Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Microsoft vient d'annoncer Maia 200, sa puce AI personnalisée de deuxième génération.
C'est un moment véritablement significatif dans la course aux armements de l'informatique en nuage.
La Maia 200 de Microsoft est une puce spécialisée conçue par Microsoft mais fabriquée par TSMC en utilisant leur technologie de processus de pointe de 3 nanomètres.
Pensez-y de cette façon : si Nvidia vous vend un moteur de voiture préfabriqué, Microsoft construit son propre moteur spécifiquement pour le travail qu'il doit accomplir.
La puce est conçue spécifiquement pour l'inférence AI, le processus de fonctionnement réel des modèles AI pour générer des réponses, et non pour les entraîner depuis le début.
La puce a été mise en service dans les centres de données de Microsoft dans l'Iowa à partir du 26 janvier 2026, avec des déploiements en Arizona à venir ensuite.
Quatre de ces puces fonctionnent ensemble dans chaque serveur, connectées via des câbles Ethernet standard au lieu de technologies propriétaires, ce qui réduit les coûts et la complexité par rapport à l'approche de Nvidia.
Microsoft utilise déjà Maia 200 pour alimenter les modèles GPT-5.2 d'OpenAI à travers Azure et Microsoft 365 Copilot.
Microsoft affirme que Maia 200 offre trois fois la performance de la puce Trainium d'Amazon et surpasse le TPU de Google dans des benchmarks clés.
Plus important encore, Microsoft prétend avoir une performance 30 % meilleure par dollar que sa flotte de matériel actuelle.
Pour une entreprise de cloud gérant des centaines de milliers de puces, cet avantage d'efficacité se traduit par des milliards de dollars au fil du temps.
La puce dispose de 216 Go de mémoire ultra-rapide avec une bande passante mémoire de 7 To/s.
Microsoft a explicitement présenté cela comme une réduction de la "dépendance à Nvidia", et c'est là que réside la véritable histoire.
Nvidia contrôle actuellement environ 85 % du marché des accélérateurs AI avec des marges brutes de 73 à 75 % sur les ventes de matériel.
Mais voici le problème pour Nvidia : les quatre grands hyperscalers, Microsoft, Meta, Amazon et Google, représentent désormais 40 à 50 % des revenus de Nvidia et tous les quatre déploient désormais des puces AI personnalisées en production.
...
Meilleurs
Classement
Favoris
