15T — это такой же бюджет, как и начальное предобучение kimi k2, насколько я знаю, это первый случай, когда команда открыто использует предыдущую контрольную точку для создания еще более мощной модели. Мы будем все чаще видеть такие "вмешательства в процессе обучения", чтобы изменить архитектуру, модальности, улучшить длинный контекст, улучшить агентные данные.. Это очень захватывающе и открывает возможность для других компаний присоединиться к гонке (курсор?) благодаря таким провайдерам, как kimi (и другим, таким как deepseek, meituan, zai,...) выпускающим базовую модель.