Lipsa memoriei DDR5 este pe cale să se agraveze și mai mult, iar prețurile vor crește și mai mult, deoarece DeepSeek tocmai a publicat un articol de cercetare: "Conditional Memory through Scalable Lookup: A New Axis of Sparsity for Large Language Models". În esență, au arătat că poți scala modelele cu memorie CXL separând modelul AI în raționament și memorie a cunoașterii. Raționamentul (Gândirea) rămâne pe HBM, dar memoria de cunoștințe (Bibliotecă) este transferată către CXL-RAM (practic DDR5). Partea bună este că modelele pot acum să se scaleze la unele și mai mari, în ciuda lipsei HBM. $MU, Samsung și SK Hynix vor beneficia și mai mult, deoarece, pe lângă faptul că HBM s-a epuizat, prețurile DDR5 vor crește și mai mult, pe măsură ce aceasta devine o altă cale de scalare.