Právě zveřejněno: Poptávka HBM po AI Server Compute ASIC vzroste do roku 2028 35krát Poptávka po paměti s vysokou šířkou pásma (HBM) v počítačových ASIC pro AI servery má dramatický nárůst. Podle nejnovější analýzy HPC společnosti Counterpoint Research se očekává, že poptávka po bitech HBM po AI akcelerátorech vzroste mezi lety 2024 a 2028 35násobně. Toto rozšíření je poháněno hyperškálovači, kteří škálují své vlastní křemíkové ekosystémy, včetně infrastruktury @Google TPU pro @GeminiApp, nasazení @awscloud Trainium a rozjezdu @Meta MTIA a @Microsoft Maia. Klíčové poznatky: • Nárůst poptávky po HBM o 35násobku mezi lety 2024 a 2028 bude poháněn agresivním škálováním na zakázku křemíku, vedeným především rostoucí cestovní mapou TPU od Googlu. • Další AI hyperscaleři také hledají škálování s heterogenní výpočetní infrastrukturou. • Od rostoucího školení až po poptávku po inferenci očekáváme, že průměrná hustota HBM na čip na ASIC vzroste téměř 5krát do roku 2028. • HBM3E získá 56 % celkové poptávky po ASIC HBM do roku 2028: Díky stabilizované nabídce a optimálnímu poměru nákladů a výkonu se HBM3E stane definitivním průmyslovým standardem pro AI hyperscalerské vlastní AI serverové výpočetní čipy. Další poznatky najdete v podrobném příspěvku zde: Získejte přístup k našemu AI Server Compute ASIC, Forecast Forecast and Tracker Delivery Forecast and Tracker pro Data Center Server: #AI #ASIC #Hyperscalers #Google #Amazon, #HBM #AIServer, #TPU, @amazon, @OpenAI, @Meta, @MicrosoftAI, @intel, @MicronTech, @SKhynix, @Samsung