> 成为 arcee > 环顾四周 > 意识到开放权重的 MoE 基本上是 Qwen/DeepSeek 的垄断 > 决定“算了,我们自己构建一个” > 实际的端到端预训练 > 在美国土壤上 > 介绍 Trinity > Nano (6B MoE) 和 Mini (26B MoE) > 开放权重,Apache 2.0 > 目前在 OpenRouter 上免费 > Nano:具有 800M 活跃参数的人格模型 > Mini:具有 3B 活跃参数的推理模型 > Large:目前在 2048 B300s 上训练,因为为什么不呢 > 未来显而易见 > 模型不会是静态的设备 > 它们将是不断成长的系统 > 适应 > 从用户那里学习 > 从实时使用中重新训练 > 如果你不拥有权重 > 或训练循环,你就无法做到这一点 > 所以 arcee 翻转了桌子 > 决定自己预训练所有内容 > 第一步:AFM-4.5B > 8T 精心策划的标记 > 与 DatologyAI 训练 > “我们能做到吗”实验...