$MU (Micron) telah meluncurkan modul memori 256GB yang dirancang untuk pusat data AI, yang dapat memberikan waktu respons yang lebih cepat untuk model bahasa besar (LLM) sekaligus secara signifikan lebih hemat energi daripada memori tradisional. Saat AI beralih dari pelatihan ke inferensi, memori CPU menjadi hambatan kinerja baru.