トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ジェンセンはDRAMが国家安全保障リスクだと言いましたし、誰もNvidiaのサプライチェーンリスクを再評価していません。
多くの人が考えていることはこうです:Nvidiaは推論分野への拡大のためにGroqを200億ドルで買収しました。クールな買収雇用、良い技術、次に進みます。
それは間違いです。
今のDRAM市場で実際に何が起きているかを見てください。DDR5チップの価格は2025年第4四半期に$6.84から$27.20に上昇しました。3か月で4倍の増加です。サムスンは契約価格を100%引き上げました。キングストンは毎週二桁の利上げを実施しています。PCベンダーは今、Linuxを入手できないためにRAMなしのデスクトップを出荷しています。
なぜでしょうか。AIデータセンターのためのHBM。サムスン、SKハイニックス、マイクロンは、標準DRAMの3倍の速度でウェハー容量をHBMに再割り当てしました。AIのサプライチェーンは消費者の記憶を食い尽くしており、新しいファブの建設には4〜5年かかるため、早くても2027年までは救済が見られません。
NvidiaのGPUはHBMが多いです。すべてのH100には80GBのHBM3が入っています。B200システムにはさらに多くのものが必要です。そしてHBMは複数のDRAMダイを積み重ね、非常に複雑な製造構造で構成されています。DRAMの価格が3倍になるのはPCビルダーだけに影響するわけではありません。これはNvidiaのGPUコストと生産能力に直接反映されています。
GroqのLPUはHBMを一切使いません。ゼロ。
1プロセッサあたり230MBのオンチップSRAMで完全に動作します。SRAMの帯域幅は80 TB/sに達し、HBMは8 TB/sです。チップ自体は外部メモリを必要としません。すべての重りはシリコンの上に直接乗っています。
このアーキテクチャは、DRAMが安価だった頃には制約のように思えました。70Bパラメータモデルを動かすには、各チップがメモリ容量が非常に少ないため、数百台のGroqチップをネットワークで繋ぐ必要があります。ラックスケールコンピューティング。複雑な相互接続。資本集約的です。
しかし、DRAMが4四半期で4倍に増え、HBM供給がAI全体の制約となると、その「制限」は有利に逆戻りします。
GroqのLPUは14nmシリコン上で製造されています。半導体基準では古代的です。TSMCの最先端ノードへの依存はありません。DRAM生産の90%+を支配する3社への依存はありません。
ジェンセンはNvidiaの最も危険なサプライチェーンリスクをヘッジするために200億ドルを費やしました。もしHBMが希少かつ高価なままでいれば、彼は制約を完全に回避する推論アーキテクチャを所有することになります。もしHBMが正常化すれば、3か月前には69億ドルの評価があった会社で2000億ドルの損失を被ることになります。
価格プレミアムはジェンセンの確率推定を示します。彼は脱出用のハッチのために、最終ラウンドの評価額のほぼ3倍を支払った。
ちなみに、TrendForceは2026年第1四半期以降もメモリ不足が続くと予測しています。サムスン、SKハイニックス、マイクロンのいずれも40〜60%の営業利益率を享受しており、市場に大量投入する動機は全くありません。寡占はまさに寡占のように振る舞っています。
誰も聞いていない疑問です:もし最も多くのAIチップを売っている人が、DRAMを使わないアーキテクチャを200億ドルも買収したのなら、彼は私たちが知らないHBM供給について何を知っているのでしょうか?
トップ
ランキング
お気に入り
