> wees arcee > kijk om je heen > realiseer je dat open-weight frontier MoE in wezen een Qwen/DeepSeek-monopolie is > besluit “nee, we bouwen onze eigen” > echte end-to-end pretraining > op Amerikaanse bodem > introductie van Trinity > Nano (6B MoE) en Mini (26B MoE) > open gewichten, Apache 2.0 > voorlopig gratis op OpenRouter > Nano: persoonlijkheidsmodel met 800M actieve parameters > Mini: redeneermodel met 3B actief > Large: traint momenteel op 2048 B300s, omdat waarom niet > de toekomst is duidelijk > modellen zullen geen statische apparaten zijn > ze zullen systemen zijn die groeien > zich aanpassen > leren van je gebruikers > opnieuw trainen op live gebruik > dat kan je niet doen als je de gewichten niet bezit > of de trainingslus > dus arcee draait de tafel om > besluit alles zelf voor te trainen > stap 1: AFM-4.5B > 8T gecureerde tokens > getraind met DatologyAI > “kunnen we dit zelfs doen” experiment...