15T is hetzelfde budget als de initiële pre-training van kimi k2, voor zover ik weet is dit de eerste keer dat een team openlijk een eerdere checkpoint gebruikt om een nog sterker model te bouwen. We zullen steeds meer van deze "mid training" interventies zien om architectuur, modaliteiten, betere lange context, betere agentische data te veranderen.. Dit is erg spannend en maakt het mogelijk voor andere bedrijven om mee te doen in de race (cursor?) dankzij aanbieders zoals kimi (en anderen zoals deepseek, meituan, zai,...) die het basismodel vrijgeven.