Tocmai am fuzionat suportul pentru Parameter Efficient Fine-Tuning (🤗PEFT) în LeRobot. Asta înseamnă că acum poți folosi metode precum adaptoarele low-rank (LoRA) pentru antrenarea politicilor pre-antrenate, precum Pi0 și SmolVLA.
Acest lucru are două beneficii: 1. Pentru polițe mai mici precum SmoLVLA, poți folosi volume mai mari de loturi și rate de învățare mai mari pentru a accelera convergența. 2. Pentru politici mai mari, cum ar fi Pi0, antrenamentul cu PEFT îți permite să folosești mult mai puțină VRAM în timpul instruirii.
30