$MU (Micron) heeft een 256GB-geheugenmodule gelanceerd die speciaal is ontworpen voor AI-datacenters, en die snellere responstijden kan bieden voor grote taalmodellen (LLM), terwijl het ook een aanzienlijk hogere energie-efficiëntie heeft in vergelijking met traditioneel geheugen. Naarmate kunstmatige intelligentie geleidelijk overgaat van de trainingsfase naar de inferentiefase, wordt CPU-geheugen de nieuwe prestatieknelpunt.