Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Microsoft acaba de anunciar Maia 200, su chip de IA personalizado de segunda generación.
Este es un momento realmente significativo en la carrera armamentística de la computación en la nube.
El Maia 200 de Microsoft es un chip especializado diseñado por Microsoft pero fabricado por TSMC utilizando su tecnología de proceso de 3 nanómetros de vanguardia.
Piénsalo así: si Nvidia te vende un motor de coche ya hecho, Microsoft está construyendo su propio motor específicamente para el trabajo que necesita hacer.
El chip está diseñado específicamente para la inferencia de IA, el proceso de ejecutar modelos de IA para generar respuestas, no entrenarlos desde cero.
El chip entró en funcionamiento en los centros de datos de Microsoft en Iowa a partir del 26 de enero de 2026, con despliegues en Arizona a continuación.
Cuatro de estos chips funcionan juntos en cada servidor, conectados mediante cables Ethernet estándar en lugar de tecnología propietaria, lo que reduce costes y complejidad en comparación con el enfoque de Nvidia.
Microsoft ya está utilizando Maia 200 para impulsar los modelos GPT-5.2 de OpenAI en Azure y Microsoft 365 Copilot.
Microsoft afirma que Maia 200 ofrece tres veces el rendimiento del chip Trainium de Amazon y supera al TPU de Google en benchmarks clave.
Más importante aún, Microsoft afirma un 30 por ciento mejor de rendimiento por dólar que su actual flota de hardware.
Para una empresa de nube que gestiona cientos de miles de chips, esa ventaja de eficiencia se traduce en miles de millones de dólares a lo largo del tiempo.
El chip cuenta con 216GB de memoria ultra rápida con 7TB/s de ancho de banda de memoria.
Microsoft presentó explícitamente esto como una reducción de la "dependencia de Nvidia", y esa es la verdadera historia.
Actualmente, Nvidia controla aproximadamente el 85 por ciento del mercado de aceleradores de IA con márgenes brutos del 73-75 por ciento en ventas de hardware.
Pero aquí está el problema para Nvidia: los cuatro principales hiperescaladores, Microsoft, Meta, Amazon y Google, representan ahora entre el 40 y el 50 por ciento de los ingresos de Nvidia y los cuatro están desplegando chips de IA personalizados en producción.
...
Populares
Ranking
Favoritas
