Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
xAI Elona Muska właśnie osiągnęło coś bezprecedensowego w branży AI.
Colossus 2, superkomputer xAI, jest teraz operacyjny z pełną mocą jednego gigawata, co czyni go pierwszym klastrem treningowym AI o skali gigawata na świecie.
Aby to zobrazować, jeden gigawat zasila około 750 000 domów i przekracza szczytowe zapotrzebowanie na energię elektryczną San Francisco.
Obiekt zostanie zmodernizowany do 1,5 gigawata w kwietniu i ostatecznie osiągnie 2 gigawaty, zużywając tyle energii, co większość dużych miast w USA.
Wewnątrz znajduje się około 555 000 wyspecjalizowanych chipów komputerowych zwanych GPU, które współpracują, aby trenować modele AI.
To ma znaczenie, ponieważ w AI większa infrastruktura oznacza mądrzejszą AI.
Inteligencja i zdolności modelu AI rosną bezpośrednio w zależności od mocy obliczeniowej użytej do jego treningu.
Więcej GPU i mocy pozwala firmom trenować większe, bardziej zdolne modele szybciej.
Prawdziwą przewagą jest szybkość, Colossus 1 przeszedł od zera do pełnej operacyjności w zaledwie 122 dni.
Podczas gdy konkurenci tacy jak OpenAI i Google wciąż planują swoją infrastrukturę na lata 2026-2027, xAI już dziś działa na poziomie zużycia energii miasta.
Kto trenuje modele AI najszybciej, może szybciej iterować i wdrażać ulepszone wersje, zanim konkurencja nadrobi zaległości.
Skala jest przytłaczająca.
555 000 GPU xAI znacznie przewyższa szacowane 150 000 Meta, około 100 000 Microsoftu i rozproszoną infrastrukturę Google'a.
Planowany obiekt o mocy 2 GW byłby około 4 razy potężniejszy niż następna największa dedykowana strona treningowa AI.
Ta ogromna moc obliczeniowa będzie trenować Grok, model AI xAI zintegrowany z setkami milionów użytkowników X, zapewniając zarówno surową moc obliczeniową, jak i wbudowaną dystrybucję.
...

Najlepsze
Ranking
Ulubione
