Microsoft har precis lanserat Maia 200, deras andra generationens specialanpassade AI-chip. Detta är ett verkligt betydelsefullt ögonblick i kapprustningen om molntjänster. Microsofts Maia 200 är ett specialiserat chip designat av Microsoft men tillverkat av TSMC med deras banbrytande 3-nanometersprocessteknologi. Tänk så här: om Nvidia säljer dig en färdigbyggd bilmotor, bygger Microsoft sin egen motor specifikt för det jobb den behöver göra. Chippet är specifikt konstruerat för AI-inferens, processen att faktiskt köra AI-modeller för att generera svar, inte för att träna dem från grunden. Chippet togs live i Microsofts datacenter i Iowa med start den 26 januari 2026, med utplaceringar till Arizona som nästa gång. Fyra av dessa chip fungerar tillsammans i varje server, anslutna via standard-Ethernet-kablar istället för proprietär teknik, vilket minskar kostnader och komplexitet jämfört med Nvidias metod. Microsoft använder redan Maia 200 för att driva OpenAI:s GPT-5.2-modeller över Azure och Microsoft 365 Copilot. ​ Microsoft hävdar att Maia 200 levererar tre gånger så hög prestanda som Amazons Trainium-chip och överträffar Googles TPU i viktiga benchmarks. Viktigare är att Microsoft hävdar 30 procent bättre prestanda per dollar än deras nuvarande hårdvaruflotta. För ett molnföretag som hanterar hundratusentals chip innebär den effektivitetsfördelen miljarder dollar över tid. Chipet har 216 GB ultrasnabbt minne med 7 TB/s minnesbandbredd. Microsoft ramade uttryckligen in detta som att minska "beroendet av Nvidia", och det är den verkliga historien. Nvidia kontrollerar för närvarande cirka 85 procent av AI-acceleratormarknaden med 73–75 procent bruttomarginal på hårdvaruförsäljning. Men här är problemet för Nvidia: alla fyra stora hyperskalerare, Microsoft, Meta, Amazon och Google, står nu för 40–50 procent av Nvidias intäkter och alla fyra implementerar nu anpassade AI-chip i produktion. ...