Acabamos de fusionar el soporte para Parameter Efficient Fine-Tuning (🤗PEFT) en LeRobot. Esto significa que ahora puedes usar métodos como adaptadores de bajo rango (LoRA) para entrenar tus políticas preentrenadas como Pi0 y SmolVLA.
Esto tiene dos ventajas: 1. Para pólizas más pequeñas como SmoLVLA, puedes usar lotes de mayor tamaño y tasas de aprendizaje para acelerar la convergencia. 2. Para políticas más grandes, como Pi0, entrenar con PEFT permite usar mucha menos VRAM durante el entrenamiento.
58