> być arcee > rozejrzeć się > zdać sobie sprawę, że otwarte wagi MoE są w zasadzie monopolem Qwen/DeepSeek > zdecydować „nie, budujemy własne” > rzeczywiste pretrenowanie end-to-end > na amerykańskiej ziemi > przedstawiamy Trinity > Nano (6B MoE) i Mini (26B MoE) > otwarte wagi, Apache 2.0 > na razie za darmo na OpenRouter > Nano: model osobowości z 800M aktywnych parametrów > Mini: model rozumowania z 3B aktywnych > Large: obecnie trenowany na 2048 B300s, bo czemu nie > przyszłość jest oczywista > modele nie będą statycznymi urządzeniami > będą systemami, które rosną > adaptują się > uczą się od swoich użytkowników > retrenują się na podstawie rzeczywistego użycia > nie możesz tego zrobić, jeśli nie posiadasz wag > ani pętli treningowej > więc arcee przewraca stół > decyduje się na pretrenowanie wszystkiego samodzielnie > krok 1: AFM-4.5B > 8T starannie dobranych tokenów > trenowane z DatologyAI > eksperyment „czy w ogóle możemy to zrobić”...