Bristen på DDR5-minne kommer att bli ännu värre, och priserna kommer att stiga ännu mer eftersom DeepSeek just släppt en forskningsartikel: "Villkorligt minne via skalbar uppslag: En ny sparsitetsaxel för stora språkmodeller". I huvudsak visade de att man också kan skala modeller med CXL-minne genom att separera AI-modellen i resonemang och kunskapsminne. Resonemang (Tänkande) stannar på HBM, men kunskapsminnet (Bibliotek) överförs till CXL-RAM (i princip DDR5). Det positiva är att modellerna nu kan skalas till ännu större trots bristen på HBM. $MU, Samsung och SK Hynix kommer att gynnas ännu mer, eftersom HBM, utöver att vara slutsåld, nu kommer DDR5-priserna att öka ännu mer, då detta blir en annan skalningsväg.