15T ist dasselbe Budget wie das ursprüngliche Pre-Training von Kimi K2. Soweit ich weiß, ist dies das erste Mal, dass ein Team offen einen vorherigen Checkpoint verwendet, um ein noch stärkeres Modell zu entwickeln. Wir werden immer mehr von diesen "Mid-Training"-Interventionen sehen, um die Architektur, Modalitäten, besseren langen Kontext und bessere agentische Daten zu ändern.. Das ist sehr aufregend und ermöglicht es anderen Unternehmen, in das Rennen einzusteigen (Cursor?), dank Anbietern wie Kimi (und anderen wie DeepSeek, Meituan, Zai,...) die das Basismodell veröffentlichen.