Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Microsoft ha appena annunciato Maia 200, il suo secondo chip AI personalizzato di seconda generazione.
Questo è un momento davvero significativo nella corsa agli armamenti del cloud computing.
Il Maia 200 di Microsoft è un chip specializzato progettato da Microsoft ma prodotto da TSMC utilizzando la loro tecnologia di processo all'avanguardia a 3 nanometri.
Pensalo in questo modo: se Nvidia ti vende un motore per auto preconfezionato, Microsoft sta costruendo il proprio motore specificamente per il lavoro che deve svolgere.
Il chip è progettato specificamente per l'inferenza AI, il processo di esecuzione effettiva dei modelli AI per generare risposte, non per addestrarli da zero.
Il chip è stato attivato nei data center di Microsoft in Iowa a partire dal 26 gennaio 2026, con le distribuzioni in Arizona in arrivo successivamente.
Quattro di questi chip lavorano insieme in ciascun server, collegati tramite cavi Ethernet standard invece di tecnologia proprietaria, il che riduce costi e complessità rispetto all'approccio di Nvidia.
Microsoft sta già utilizzando Maia 200 per alimentare i modelli GPT-5.2 di OpenAI su Azure e Microsoft 365 Copilot.
Microsoft afferma che Maia 200 offre tre volte le prestazioni del chip Trainium di Amazon e supera il TPU di Google in importanti benchmark.
Più importante, Microsoft sostiene di avere un 30% di prestazioni migliori per dollaro rispetto alla sua attuale flotta hardware.
Per un'azienda cloud che gestisce centinaia di migliaia di chip, quel vantaggio di efficienza si traduce in miliardi di dollari nel tempo.
Il chip presenta 216 GB di memoria ultra veloce con 7 TB/s di larghezza di banda della memoria.
Microsoft ha esplicitamente inquadrato questo come una riduzione della "dipendenza da Nvidia", e questa è la vera storia.
Nvidia controlla attualmente circa l'85% del mercato degli acceleratori AI con margini lordi del 73-75% sulle vendite di hardware.
Ma ecco il problema per Nvidia: tutti e quattro i principali hyperscalers, Microsoft, Meta, Amazon e Google, rappresentano ora il 40-50% delle entrate di Nvidia e tutti e quattro stanno ora distribuendo chip AI personalizzati in produzione.
...
Principali
Ranking
Preferiti
