Kami baru saja menggabungkan dukungan untuk Parameter Efficient Fine-Tuning (🤗PEFT) di LeRobot. Ini berarti Anda sekarang dapat menggunakan metode seperti adaptor peringkat rendah (LoRA) untuk melatih kebijakan yang telah dilatih sebelumnya seperti Pi0 dan SmolVLA.
Ini memiliki dua manfaat: 1. Untuk kebijakan yang lebih kecil seperti SmoLVLA, Anda dapat menggunakan ukuran batch dan tingkat pembelajaran yang lebih tinggi untuk mempercepat konvergensi. 2. Untuk kebijakan yang lebih besar, seperti Pi0, pelatihan dengan PEFT memungkinkan Anda menggunakan VRAM yang jauh lebih sedikit selama pelatihan.
35