De volledig asynchrone trainer gelanceerd op @grail_ai mainnet, training van een 7B model 🚀 Training loopt nu continu vanuit een replay buffer! Geen wachttijd op communicatie. Dit heeft 2k+ context ontgrendeld en stelde ons in staat om te schalen van 1.5B → 7B modellen en zelfs groter later.