$MU (Micron) a lansat un modul de memorie de 256GB proiectat pentru centre de date AI, care poate oferi timpi de răspuns mai rapizi pentru modele de limbaj mari (LLM-uri), fiind în același timp semnificativ mai eficient energetic decât memoria tradițională. Pe măsură ce AI trece de la antrenament la inferență, memoria CPU devine un nou blocaj de performanță.