Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Microsoft acaba de anunciar Maia 200, su chip de IA personalizado de segunda generación.
Este es un momento genuinamente significativo en la carrera de la computación en la nube.
El Maia 200 de Microsoft es un chip especializado diseñado por Microsoft pero fabricado por TSMC utilizando su tecnología de proceso de 3 nanómetros de vanguardia.
Piénsalo así, si Nvidia te vende un motor de coche prehecho, Microsoft está construyendo su propio motor específicamente para el trabajo que necesita realizar.
El chip está diseñado específicamente para la inferencia de IA, el proceso de ejecutar modelos de IA para generar respuestas, no para entrenarlos desde cero.
El chip se activó en los centros de datos de Microsoft en Iowa a partir del 26 de enero de 2026, con despliegues en Arizona que vendrán a continuación.
Cuatro de estos chips trabajan juntos en cada servidor, conectados a través de cables Ethernet estándar en lugar de tecnología propietaria, lo que reduce costos y complejidad en comparación con el enfoque de Nvidia.
Microsoft ya está utilizando Maia 200 para potenciar los modelos GPT-5.2 de OpenAI en Azure y Microsoft 365 Copilot.
Microsoft afirma que Maia 200 ofrece tres veces el rendimiento del chip Trainium de Amazon y supera al TPU de Google en métricas clave.
Más importante aún, Microsoft afirma que tiene un 30 por ciento mejor rendimiento por dólar que su flota de hardware actual.
Para una empresa de nube que gestiona cientos de miles de chips, esa ventaja de eficiencia se traduce en miles de millones de dólares a lo largo del tiempo.
El chip cuenta con 216 GB de memoria ultrarrápida con un ancho de banda de memoria de 7 TB/s.
Microsoft enmarcó esto explícitamente como una reducción de "dependencia de Nvidia", y esa es la verdadera historia.
Nvidia controla actualmente aproximadamente el 85 por ciento del mercado de aceleradores de IA con márgenes brutos del 73-75 por ciento en ventas de hardware.
Pero aquí está el problema para Nvidia, los cuatro grandes hyperscalers, Microsoft, Meta, Amazon y Google, ahora representan entre el 40 y el 50 por ciento de los ingresos de Nvidia y los cuatro están desplegando chips de IA personalizados en producción.
...
Parte superior
Clasificación
Favoritos
