Vi har nettopp slått sammen støtte for Parameter Efficient Fine-Tuning (🤗PEFT) i LeRobot. Dette betyr at du nå kan bruke metoder som low-rank adapters (LoRA) for å trene dine forhåndstrente policyer som Pi0 og SmolVLA.
Dette har to fordeler: 1. For mindre poliser som SmoLVLA kan du bruke høyere batchstørrelser og læringsrater for å øke konvergensen. 2. For større policyer, som Pi0, lar opplæring med PEFT deg bruke mye mindre VRAM under opplæringen.
34