La escasez de memoria DDR5 está a punto de empeorar aún más, y los precios están a punto de subir aún más ya que DeepSeek acaba de publicar un artículo de investigación: "Memoria condicional mediante búsqueda escalable: un nuevo eje de esparsidad para grandes modelos de lenguaje". En esencia, demostraron que también se pueden escalar modelos con memoria CXL separando el modelo de IA en memoria de razonamiento y memoria de conocimiento. El razonamiento (pensamiento) permanece en HBM, pero la memoria de conocimiento (Biblioteca) se descarga en CXL-RAM (esencialmente DDR5). Lo bueno es que ahora los modelos pueden escalar a modelos aún más grandes a pesar de la escasez de HBM. $MU, Samsung y SK Hynix se beneficiarán aún más, ya que además de que HBM está agotado, ahora los precios de la DDR5 van a crecer aún más, ya que esto se convierte en otra vía de escalabilidad.