xAI de Elon Musk ha logrado algo sin precedentes en la industria de la IA. Colossus 2, la supercomputadora de xAI, ya está operativa con una capacidad de potencia de un gigavatio completo, convirtiéndose en el primer clúster de entrenamiento de IA a escala de gigavatio en el mundo. Para visualizar esto, un gigavatio alimenta aproximadamente 750,000 hogares y supera la demanda máxima de electricidad de San Francisco. La instalación se actualizará a 1.5 gigavatios en abril y eventualmente alcanzará un total de 2 gigavatios, consumiendo tanta energía como la mayoría de las grandes ciudades de EE. UU. Dentro hay aproximadamente 555,000 chips de computadora especializados llamados GPUs que trabajan juntos para entrenar modelos de IA.​​ Esto es importante porque en IA, una infraestructura más grande equivale a una IA más inteligente. La inteligencia y capacidad de un modelo de IA escalan directamente con la potencia de computación utilizada para entrenarlo. Más GPUs y potencia permiten a las empresas entrenar modelos más grandes y capaces más rápido. La verdadera ventaja es la velocidad, Colossus 1 pasó de estar en tierra a completamente operativo en solo 122 días. Mientras competidores como OpenAI y Google aún están planificando su infraestructura para 2026-2027, xAI ya está operando con un consumo de energía a nivel de ciudad hoy. Quien entrene modelos de IA más rápido puede iterar más rápido y desplegar versiones mejoradas antes de que los competidores se pongan al día.​ La escala es abrumadora. Las 555,000 GPUs de xAI superan con creces las estimadas 150,000 de Meta, aproximadamente 100,000 de Microsoft y la infraestructura distribuida de Google. La instalación planificada de 2 GW sería aproximadamente 4 veces más poderosa que el siguiente sitio de entrenamiento de IA dedicado más grande. Esta masiva capacidad de computación entrenará a Grok, el modelo de IA de xAI integrado con los cientos de millones de usuarios de X, proporcionando tanto potencia de computación en bruto como distribución integrada.​ ...