Vi gleder oss til å støtte @Arcee_ai sine Trinity-modeller
En familie av åpne Mixture of Experts-modeller forhåndstrent i samarbeid mellom Arcee, Datology og Prime Intellect
Lanserer Trinity Nano (6B) og Mini (26B) i dag, med Trinity Large fortsatt under trening
Introduserer INTELLECT-3: Skalering av RL til en 100B+ MoE-modell på vår end-to-end-stack
Å oppnå topp moderne ytelse for sin størrelse innen matematikk, kode og resonnement
Bygget med de samme verktøyene vi gir deg, fra miljøer og evalueringer, RL-rammeverk, sandkasser og mer