> være Arcee > se deg rundt > innser at open-weight frontier MoE i praksis er et Qwen/DeepSeek-monopol > bestemmer meg for «nei, vi bygger vår egen» > faktisk fortrening fra ende til slutt > på amerikansk jord > introduksjon av Trinity > Nano (6B MoE) og Mini (26B MoE) > åpne vekter, Apache 2.0 > gratis på OpenRouter foreløpig > Nano: personlighetsmodell med 800 millioner aktive parametere > Mini: resonnementsmodell med 3B aktiv > Large: trener akkurat nå på 2048 B300 fordi hvorfor ikke > fremtid er åpenbar > modellene vil ikke være statiske apparater > det vil være systemer som vokser > tilpasse seg > lære av brukerne dine > omskole fra levende bruk > du kan ikke gjøre det hvis du ikke eier vektene > eller treningssløyfen > så snur Arcee bordet > bestemmer seg for å forhåndstrene alt selv > steg 1: AFM-4.5B > 8T kuraterte tokens > trent med DatologyAI > "kan vi i det hele tatt gjøre dette"-eksperimentet...