Acabamos de fusionar el soporte para el Ajuste Fino Eficiente en Parámetros (🤗PEFT) en LeRobot. Esto significa que ahora puedes usar métodos como adaptadores de bajo rango (LoRA) para entrenar tus políticas preentrenadas como Pi0 y SmolVLA.
Esto tiene dos beneficios: 1. Para políticas más pequeñas como SmoLVLA, puedes usar tamaños de lote y tasas de aprendizaje más altas para acelerar la convergencia. 2. Para políticas más grandes, como Pi0, entrenar con PEFT te permite usar mucho menos VRAM durante el entrenamiento.
38