> ser arcee > mirar alrededor > darse cuenta de que el MoE de pesos abiertos es básicamente un monopolio de Qwen/DeepSeek > decidir “nah, estamos construyendo el nuestro” > preentrenamiento real de extremo a extremo > en suelo estadounidense > presentando Trinity > Nano (6B MoE) y Mini (26B MoE) > pesos abiertos, Apache 2.0 > gratis en OpenRouter por ahora > Nano: modelo de personalidad con 800M de parámetros activos > Mini: modelo de razonamiento con 3B activos > Grande: entrenando ahora mismo en 2048 B300s porque ¿por qué no? > el futuro es obvio > los modelos no serán aparatos estáticos > serán sistemas que crecen > se adaptan > aprenden de tus usuarios > se reentrenan a partir del uso en vivo > no puedes hacer eso si no posees los pesos > o el bucle de entrenamiento > así que arcee voltea la mesa > decide preentrenar todo ellos mismos > paso 1: AFM-4.5B > 8T de tokens curados > entrenados con DatologyAI > experimento “¿podemos hacer esto?”...