Juuri julkaistu: HBM:n kysyntä tekoälypalvelinten laskenta-ASICeille kasvaa 35-kertaiseksi vuoteen 2028 mennessä Korkean kaistanleveyden muistin (HBM) kysyntä tekoälypalvelinlaskenta-ASIC-yksiköissä tulee kasvamaan huomattavasti. Counterpoint Researchin viimeisimmän HPC-analyysin mukaan HBM-bittien kysyntä tekoälykiihdyttimille kasvaa 35-kertaiseksi vuosien 2024 ja 2028 välillä. Tätä laajentumista vauhdittaa hyperskaalaajat, jotka skaalaavat omia piiekosysteemejään, mukaan lukien @Google TPU-infrastruktuuri @GeminiApp-, @awscloud Trainium-käyttöönottoja varten sekä @Meta MTIA:n ja @Microsoft Maian ramppi. Keskeiset huomiot: • 35-kertainen HBM-kysynnän kasvu vuosien 2024 ja 2028 välillä johtuu aggressiivisesta räätälöidystä piiskaavauksesta, jota johtaa pääasiassa Googlen ylöspäin uudistettu TPU-tiekartta. • Muut tekoälyhyperskaalaajat pyrkivät myös skaalautumaan heterogeenisellä laskentainfrastruktuurilla. • Kasvavasta koulutuksesta päättelykysyntään odotamme keskimääräisen HBM-tiheyden per sirua kohden lähes viisinkertaistuvan vuoteen 2028 mennessä. • HBM3E kattaa 56 % koko ASIC:n HBM-kysynnän kokonaisuudesta vuoteen 2028 mennessä: Vakaan tarjonnan ja optimaalisen kustannus- ja suorituskyvyn tasapainon ansiosta HBM3E:stä tulee tekoälyhyperskaalajien räätälöityjen AI-palvelinlaskentapiirien lopullinen alan standardi. Lisätietoja yksityiskohtaisessa kirjoituksessa täällä: Pääse käsiksi Data Center AI Server Compute ASICs -lähetysennusteeseen ja seurantaan täältä: #AI #ASIC #Hyperscalers #Google #Amazon, #HBM #AIServer, #TPU, @amazon, @OpenAI, @Meta, @MicrosoftAI, @intel, @MicronTech, @SKhynix, @Samsung