15T — це той самий бюджет, що й початкове попереднє навчання kimi k2. Наскільки я знаю, це перший випадок, коли команда відкрито використовує попередній контрольний пункт для створення ще сильнішої моделі Ми й надалі будемо бачити все більше таких «середньотренувальних втручань» для зміни архіки, модальності, кращого довгого контексту, кращих агентних даних... Це дуже захопливо і дає змогу іншим компаніям приєднатися до гонки (курсор?) завдяки провайдерам, таким як Kimi (та іншим, як Deepseek, Meituan, Zai,...), які випустили базову модель