> 成為 arcee > 環顧四周 > 意識到開放權重的 MoE 基本上是 Qwen/DeepSeek 的壟斷 > 決定「不,我們要自己建造」 > 實際的端到端預訓練 > 在美國土地上 > 介紹 Trinity > Nano (6B MoE) 和 Mini (26B MoE) > 開放權重,Apache 2.0 > 目前在 OpenRouter 上免費 > Nano:擁有 800M 活躍參數的人格模型 > Mini:擁有 3B 活躍參數的推理模型 > Large:目前在 2048 B300s 上訓練,因為為什麼不呢 > 未來是顯而易見的 > 模型不會是靜態設備 > 它們將是成長的系統 > 適應 > 從你的用戶那裡學習 > 從實時使用中重新訓練 > 如果你不擁有權重 > 或訓練循環 > 你無法做到這一點 > 所以 arcee 翻轉了桌子 > 決定自己預訓練所有東西 > 第一步:AFM-4.5B > 8T 精選標記 > 與 DatologyAI 訓練...