DDR5メモリ不足はさらに悪化しようとしており、DeepSeekが「Conditional Memory by Scalable Lookup: A New Axis of Sparsity for Large Language Models」という研究論文を発表したことで、価格はさらに上昇する見込みです。 要するに、彼らはAIモデルを推論記憶と知識記憶に分けることで、CXLメモリでもモデルをスケールできることを示しました。推論(思考)はHBMに残りますが、知識メモリ(ライブラリ)はCXL-RAM(本質的にはDDR5)にオフロードされます。 良い点は、HBM不足にもかかわらずモデルをさらに大型にスケールできることです。 $MU、サムスン、SKハイニックスはさらに恩恵を受けます。HBMの完売に加え、DDR5の価格もさらに上昇し、これが新たなスケーリングの道筋となります。