Как и прежде, такие новости должны вызывать как минимум большой рост. Сейчас действительно нет никакого пузыря. $MU Последняя память для AI-серверов, низкое энергопотребление (в 3 раза меньше), высокая емкость 256 ГБ, совместно с NVIDIA разрабатывает чипы основной памяти AI следующего поколения для серверов, акцентируя внимание на решении задач с длинным контекстом. Рынок памяти для AI переходит от конкуренции по емкости к конкуренции по энергоэффективности, Micron напрямую захватывает болевую точку, открывая новую высокомаржинальную кривую роста вне HBM. Также концепция производства в США.