Acabamos de unir o suporte para Parameter Efficient Fine-Tuning (🤗PEFT) no LeRobot. Isso significa que agora você pode usar métodos como adaptadores de baixo nível (LoRA) para treinar suas políticas pré-treinadas como Pi0 e SmolVLA.
Isso tem dois benefícios: 1. Para apólices menores como a SmoLVLA, você pode usar lotes maiores e taxas de aprendizado para acelerar a convergência. 2. Para políticas maiores, como Pi0, o treinamento com PEFT permite usar muito menos VRAM durante o treinamento.
40