> essere arcee > guardarsi intorno > rendersi conto che l'open-weight frontier MoE è fondamentalmente un monopolio Qwen/DeepSeek > decidere “no, stiamo costruendo il nostro” > pre-addestramento end-to-end effettivo > su suolo statunitense > presentiamo Trinity > Nano (6B MoE) e Mini (26B MoE) > pesi aperti, Apache 2.0 > gratis su OpenRouter per ora > Nano: modello di personalità con 800M di parametri attivi > Mini: modello di ragionamento con 3B attivi > Large: in fase di addestramento ora su 2048 B300s perché no > il futuro è ovvio > i modelli non saranno apparecchi statici > saranno sistemi che crescono > si adattano > apprendono dai tuoi utenti > si riaddestrano dall'uso dal vivo > non puoi farlo se non possiedi i pesi > o il ciclo di addestramento > quindi arcee rovescia il tavolo > decide di pre-addestrare tutto da soli > passo 1: AFM-4.5B > 8T di token curati > addestrati con DatologyAI > esperimento “possiamo anche farlo”...