> être arcee > regarder autour > réaliser que le MoE à poids ouverts est essentiellement un monopole Qwen/DeepSeek > décider "non, nous construisons le nôtre" > préentraînement de bout en bout réel > sur le sol américain > introduction de Trinity > Nano (6B MoE) et Mini (26B MoE) > poids ouverts, Apache 2.0 > gratuit sur OpenRouter pour l'instant > Nano : modèle de personnalité avec 800M de paramètres actifs > Mini : modèle de raisonnement avec 3B actifs > Large : en formation en ce moment sur 2048 B300s parce que pourquoi pas > l'avenir est évident > les modèles ne seront pas des appareils statiques > ils seront des systèmes qui grandissent > s'adaptent > apprennent de vos utilisateurs > se réentraînent à partir de l'utilisation en direct > vous ne pouvez pas faire cela si vous ne possédez pas les poids > ou la boucle d'entraînement > donc arcee renverse la table > décide de préentraîner tout eux-mêmes > étape 1 : AFM-4.5B > 8T de tokens curés > entraînés avec DatologyAI > expérience "pouvons-nous même faire cela"...