> sei arcee > umschauen > erkennen, dass das Open-Weight Frontier MoE im Grunde ein Qwen/DeepSeek-Monopol ist > entscheiden: „nein, wir bauen unser eigenes“ > tatsächliches End-to-End-Pretraining > auf US-Boden > Einführung von Trinity > Nano (6B MoE) und Mini (26B MoE) > offene Gewichte, Apache 2.0 > vorerst kostenlos auf OpenRouter > Nano: Persönlichkeitsmodell mit 800M aktiven Parametern > Mini: Denkmodell mit 3B aktiv > Groß: wird gerade auf 2048 B300s trainiert, weil warum nicht > die Zukunft ist offensichtlich > Modelle werden keine statischen Geräte sein > sie werden Systeme sein, die wachsen > sich anpassen > von deinen Nutzern lernen > aus der Live-Nutzung neu trainieren > das kannst du nicht tun, wenn du die Gewichte > oder die Trainingsschleife nicht besitzt > also wirft arcee den Tisch um > entscheidet, alles selbst vorzutrainieren > Schritt 1: AFM-4.5B > 8T kuratierte Tokens > trainiert mit DatologyAI > „können wir das überhaupt machen“ Experiment...