Der Mangel an DDR5-Speicher wird sich noch verschärfen, und die Preise werden weiter steigen, da DeepSeek gerade ein Forschungspapier veröffentlicht hat: "Bedingter Speicher über skalierbare Nachschlagewerke: Eine neue Achse der Sparsamkeit für große Sprachmodelle". Im Wesentlichen haben sie gezeigt, dass man Modelle auch mit CXL-Speicher skalieren kann, indem man das KI-Modell in Denk- und Wissensspeicher trennt. Der Denk-Speicher bleibt auf HBM, während der Wissensspeicher (Bibliothek) auf CXL-RAM (im Wesentlichen DDR5) ausgelagert wird. Das Gute daran ist, dass Modelle jetzt trotz des HBM-Mangels noch größer skaliert werden können. $MU, Samsung und SK Hynix werden noch mehr profitieren, da neben dem ausverkauften HBM jetzt auch die Preise für DDR5 weiter steigen werden, da dies einen weiteren Skalierungsweg darstellt.