Baru Diterbitkan: Permintaan HBM untuk ASIC Komputasi Server AI Tumbuh 35x Lipat pada 2028 Permintaan untuk Memori Bandwidth Tinggi (HBM) di ASIC komputasi server AI akan melonjak secara dramatis. Sesuai analisis HPC terbaru Counterpoint Research memproyeksikan, permintaan bit HBM untuk akselerator AI tumbuh 35x lipat antara 2024 dan 2028. Ekspansi ini didorong oleh hyperscaler yang menskalakan ekosistem silikon kustom mereka, termasuk infrastruktur TPU @Google untuk @GeminiApp, penerapan @awscloud Trainium, dan ramp @Meta MTIA dan @Microsoft Maia. Takeaways Utama: • Lonjakan permintaan HBM 35x antara 2024 dan 2028 akan didorong oleh penskalaan silikon kustom yang agresif yang dipimpin terutama oleh peta jalan TPU Google yang direvisi ke atas. • Hyperscaler AI lainnya juga ingin menskalakan dengan infrastruktur komputasi yang heterogen. • Dari pelatihan yang berkembang hingga permintaan inferensi, kami memperkirakan kepadatan HBM per chip rata-rata per ASIC akan melonjak hampir 5x lipat pada tahun 2028. • HBM3E akan menangkap 56% dari total bauran permintaan ASIC HBM pada tahun 2028: Berkat pasokan yang stabil dan keseimbangan biaya dan kinerja yang optimal, HBM3E akan menjadi standar industri definitif untuk chip komputasi server AI kustom AI hyperscaler. Wawasan lebih lanjut dalam posting terperinci di sini: Akses Perkiraan dan Pelacak Pengiriman ASIC Komputasi Server AI Pusat Data kami di sini: #AI #ASIC #Hyperscalers #Google #Amazon, #HBM #AIServer, #TPU, @amazon, @OpenAI, @Meta, @MicrosoftAI, @intel, @MicronTech, @SKhynix, @Samsung