Startet den fullt asynkrone treneren på hovednettet @grail_ai, og trente en 7B-modell 🚀 Treningen foregår nå kontinuerlig fra en replay-buffer! Ingen venting på kommunikasjon. Dette låste opp 2k+ kontekst og lot oss skalere fra 1,5B → 7B modeller og enda større senere.