Nous venons de fusionner le support pour le Fine-Tuning Efficace en Paramètres (🤗PEFT) dans LeRobot. Cela signifie que vous pouvez désormais utiliser des méthodes comme les adaptateurs de faible rang (LoRA) pour entraîner vos politiques pré-entraînées comme Pi0 et SmolVLA.
Cela a deux avantages : 1. Pour des politiques plus petites comme SmoLVLA, vous pouvez utiliser des tailles de lot et des taux d'apprentissage plus élevés pour accélérer la convergence. 2. Pour des politiques plus grandes, comme Pi0, l'entraînement avec PEFT vous permet d'utiliser beaucoup moins de VRAM pendant l'entraînement.
36