> menjadi arcee > melihat sekeliling > menyadari bahwa MoE perbatasan bobot terbuka pada dasarnya adalah monopoli Qwen/DeepSeek > memutuskan "tidak, kami membangun sendiri" > prapelatihan end-to-end yang sebenarnya > di tanah AS > memperkenalkan Trinitas > Nano (6B MoE) dan Mini (26B MoE) > bobot terbuka, Apache 2.0 > gratis di OpenRouter untuk saat ini > Nano: model kepribadian dengan 800M parameter aktif > Mini: model penalaran dengan 3B aktif > Besar: berlatih sekarang di 2048 B300 karena mengapa tidak > masa depan sudah jelas Model > tidak akan menjadi peralatan statis > mereka akan menjadi sistem yang tumbuh > beradaptasi > belajar dari pengguna Anda > melatih ulang dari penggunaan langsung > Anda tidak dapat melakukannya jika Anda tidak memiliki beban > atau loop pelatihan > Begitu Arcee membalik meja > memutuskan untuk melatih semuanya sendiri > langkah 1: AFM-4.5B > token yang dikuratori 8T > dilatih dengan DatologyAI > eksperimen "bisakah kita melakukan ini"...