Microsoft tocmai a anunțat Maia 200, a doua generație de cip AI personalizat. Acesta este un moment cu adevărat semnificativ în cursa înarmării cloud computing-ului. Maia 200 de la Microsoft este un cip specializat proiectat de Microsoft, dar fabricat de TSMC folosind tehnologia lor de proces de ultimă generație pe 3 nanometri. Gândește-te așa: dacă Nvidia îți vinde un motor de mașină gata făcut, Microsoft își construiește propriul motor special pentru treaba de care are nevoie. Cipul este proiectat special pentru inferența AI, procesul de a rula efectiv modele AI pentru a genera răspunsuri, nu pentru a le antrena de la zero. Cipul a fost lansat în centrele de date Microsoft din Iowa începând cu 26 ianuarie 2026, urmând implementările în Arizona. Patru dintre aceste cipuri funcționează împreună pe fiecare server, conectate prin cabluri Ethernet standard în loc de tehnologie proprietară, ceea ce reduce costurile și complexitatea comparativ cu abordarea Nvidia. Microsoft folosește deja Maia 200 pentru a alimenta modelele GPT-5.2 ale OpenAI pe Azure și Microsoft 365 Copilot. ​ Microsoft susține că Maia 200 oferă de trei ori performanța cipului Trainium de la Amazon și depășește TPU-ul Google în benchmark-uri cheie. Mai important, Microsoft susține performanța pe dolar cu 30% mai bună decât flota lor hardware actuală. Pentru o companie de cloud care gestionează sute de mii de cipuri, acest avantaj de eficiență se traduce în miliarde de dolari în timp. Cipul dispune de 216GB memorie ultra-rapidă cu o lățime de bandă de 7TB/s. Microsoft a prezentat explicit acest lucru ca o reducere a "dependenței de Nvidia", iar aceasta este adevărata poveste. Nvidia controlează în prezent aproximativ 85% din piața acceleratoarelor AI, cu marje brute de 73-75% la vânzările de hardware. Dar iată problema pentru Nvidia: toți cei patru mari hyperscaleri, Microsoft, Meta, Amazon și Google, reprezintă acum 40-50% din veniturile Nvidia, iar toți patru implementează acum în producție cipuri AI personalizate. ...