Lanserade den fullt asynkrona tränaren på @grail_ai mainnet, och tränade en 7B-modell 🚀 Träningen körs nu kontinuerligt från en reprisbuffert! Ingen väntan på kommunikation. Detta låste upp 2k+ kontext och lät oss skala från 1,5 miljarder → 7 miljarder modeller och ännu större senare.