Nylig publisert: HBM-etterspørselen etter AI-server-compute-ASIC-er vil vokse 35 ganger innen 2028 Etterspørselen etter High Bandwidth Memory (HBM) i AI-serverberegnings-ASIC-er forventes å øke dramatisk. Ifølge Counterpoint Researchs nyeste HPC-analyse forventes etterspørselen etter AI-akseleratorer med HBM-biter å vokse 35 ganger mellom 2024 og 2028. Denne utvidelsen drives av hyperskalerere som skalerer sine tilpassede silisiumøkosystemer, inkludert @Google TPU-infrastruktur for @GeminiApp, @awscloud Trainium-utrullinger og oppbygging av @Meta MTIA og @Microsoft Maia. Viktige punkter: • Den 35x HBM-etterspørselsøkningen mellom 2024 og 2028 vil drives av aggressiv tilpasset silisiumskalering, ledet hovedsakelig av Googles oppoverreviderte TPU-veikart. • Andre AI-hyperskalere ønsker også å skalere med en heterogen beregningsinfrastruktur. • Fra økende opplæring til etterspørsel etter inferens, forventer vi at gjennomsnittlig HBM-tetthet per brikke per ASIC vil øke nesten fem ganger innen 2028. • HBM3E skal dekke 56 % av den totale ASIC-HBM-etterspørselsmiksen innen 2028: Takket være stabilisert tilbud og optimal balanse mellom kostnad og ytelse, vil HBM3E bli den definitive industristandarden for AI-hyperskalereres tilpassede AI-serverberegningsbrikker. Flere innsikter i et detaljert innlegg her: Få tilgang til vår Data Center AI Server Compute ASICs Shipment Forecast and Tracker her: #AI #ASIC #Hyperscalers #Google #Amazon, #HBM #AIServer, #TPU, @amazon, @OpenAI, @Meta, @MicrosoftAI, @intel, @MicronTech, @SKhynix, @Samsung