xAI Элонa Маска только что достигла чего-то беспрецедентного в индустрии ИИ. Colossus 2, суперкомпьютер xAI, теперь работает с полной мощностью в один гигаватт, что делает его первым кластером для обучения ИИ в мире с мощностью в один гигаватт. Чтобы это визуализировать, один гигаватт обеспечивает электроэнергией примерно 750 000 домов и превышает пиковый спрос на электроэнергию в Сан-Франциско. Установка будет модернизирована до 1,5 гигаватт в апреле и в конечном итоге достигнет 2 гигаватт, потребляя столько же энергии, сколько большинство крупных городов США. Внутри находится примерно 555 000 специализированных компьютерных чипов, называемых GPU, которые работают вместе для обучения моделей ИИ.​​ Это важно, потому что в ИИ больше инфраструктуры означает более умный ИИ. Интеллект и возможности модели ИИ напрямую зависят от вычислительной мощности, используемой для ее обучения. Большее количество GPU и мощность позволяют компаниям обучать более крупные и более способные модели быстрее. Настоящее преимущество — это скорость, Colossus 1 прошел путь от нуля до полной работоспособности всего за 122 дня. В то время как конкуренты, такие как OpenAI и Google, все еще планируют свою инфраструктуру на 2026-2027 годы, xAI уже сегодня работает на уровне потребления энергии города. Кто быстрее обучает модели ИИ, тот может быстрее итеративно улучшать и развертывать новые версии, прежде чем конкуренты успеют догнать.​ Масштаб впечатляющий. 555 000 GPU xAI значительно превышают оценочные 150 000 Meta, примерно 100 000 Microsoft и распределенную инфраструктуру Google. Запланированная установка мощностью 2 ГВт будет примерно в 4 раза мощнее следующего по величине специализированного сайта для обучения ИИ. Эта огромная вычислительная мощность будет обучать Grok, модель ИИ xAI, интегрированную с сотнями миллионов пользователей X, предоставляя как сырую вычислительную мощность, так и встроенное распределение.​ ...