15T es el mismo presupuesto que el preentrenamiento inicial de kimi k2, hasta donde sé, esta es la primera vez que un equipo utiliza abiertamente un punto de control anterior para construir un modelo aún más fuerte. seguiremos viendo más y más de esta intervención "a mitad de entrenamiento" para cambiar la arquitectura, modalidades, mejor contexto largo, mejor datos agentivos... esto es muy emocionante y hace posible que otras empresas se unan a la carrera (¿cursor?) gracias a proveedores como kimi (y otros como deepseek, meituan, zai,...) que están liberando el modelo base.