> ser Arcee > mirar alrededor > entender que el MoE de frontera de peso abierto es básicamente un monopolio de Qwen/DeepSeek > deciden "no, vamos a construir la nuestra" > preentrenamiento real de extremo a extremo > en suelo estadounidense > Presentación de Trinity > Nano (6B MoE) y Mini (26B MoE) > peso abierto, Apache 2.0 > gratis en OpenRouter por ahora > Nano: modelo de personalidad con parámetros activos de 800M > Mini: modelo de razonamiento con 3B activo > Grande: estoy entrenando ahora mismo con 2048 B300 porque, ¿por qué no? > futuro es evidente > modelos no serán electrodomésticos estáticos > serán sistemas que crecerán > adaptarse > aprender de tus usuarios > reentrenamiento desde uso en vivo > no puedes hacer eso si no tienes las pesas > o el bucle de entrenamiento > así que Arcee da la vuelta a la mesa > decide entrenar todo por su cuenta > paso 1: AFM-4.5B > Tokens 8T seleccionados > entrenado con DatologyAI > experimento de "¿podemos siquiera hacer esto?"...