最新情報:HBMによるAIサーバーコンピュートASIC需要が2028年までに35倍に増加 AIサーバーのコンピュートASICにおける高帯域幅メモリ(HBM)の需要は劇的に増加する見込みです。Counterpoint Researchの最新のHPC分析によると、HBMビットによるAI加速器の需要は2024年から2028年の間に35倍に増加すると予測されています。この拡大は、@GeminiAppのためのTPUインフラ@Google、@awscloud Trainiumの展開、@Meta MTIAや@Microsoft Maiaの拡大を含むカスタムシリコンエコシステムの拡大によって推進されています。 主なポイント: ・2024年から2028年にかけて35倍のHBM需要急増は、主にGoogleの上方修正されたTPUロードマップが主導する積極的なカスタムシリコンスケーリングによって牽引されます。 ・他のAIハイパースケーラーも異種計算インフラでのスケーリングを目指しています。 • トレーニングの成長から推論需要に至るまで、ASICあたりの平均1チップあたりのHBM密度は2028年までにほぼ5倍に急増すると予想しています。 ・HBM3Eが2028年までにASIC HBM需要全体の56%を獲得:供給の安定とコストと性能の最適なバランスにより、HBM3EはAIハイパースケーラーのカスタムAIサーバー計算チップの決定的な業界標準となるでしょう。 詳細な投稿はこちらで詳しくご覧いただけます: データセンターAIサーバーコンピュートASIC出荷予測およびトラッカーはこちらからご覧いただけます。 #AI #ASIC #Hyperscalers #Google #Amazon、#HBM #AIServer、#TPU、@amazon、@OpenAI、@Meta、@MicrosoftAI、@intel、@MicronTech、@SKhynix、@Samsung