> бути Арсі > озирнутися навколо > розумію, що відкритий Frontier MoE фактично є монополією Qwen/DeepSeek > вирішили: «ні, ми будуємо свої» > фактичне наскрізне попереднє навчання > на території США > представлення Трініті > Nano (6B MoE) та Mini (26B MoE) > відкриті ваги, Apache 2.0 > поки що безкоштовно на OpenRouter > Nano: модель особистості з активними параметрами 800M > Mini: модель мислення з активним 3B > Large: зараз тренуються на 2048 B300, бо чому б і ні. > майбутнє очевидне > моделі не будуть статичними приладами > це будуть системи, які ростуть > адаптуватися > вчитися у своїх користувачів > перенавчитися з використання в реальному режимі > ти не можеш цього зробити, якщо не маєш гантелів > або тренувальний цикл > Арсі перевертає стіл > вирішує самостійно попередньо навчити все > крок 1: AFM-4.5B > Кураторські токени 8T > навчався з DatologyAI > експеримент «чи можемо ми взагалі це зробити?»...