HuggingFace právě usnadnil ladění desetkrát jednodušší! Jeden řádek angličtiny pro doladění jakéhokoli open-source LLM. Vydali novou "dovednost", kterou můžete zadat do Clauda nebo jakéhokoli programátora. Nejenže píše tréninkové skripty, ale skutečně odesílá úlohy do cloudových GPU, sleduje pokrok a posílá hotové modely do Hubu. Takto to funguje: Řeknete něco jako: "Jemné vyladění Qwen3-0.6B na datasetu open-r1/codeforces-cots" A Claude bude: ↳ Ověřte formát datové sady ↳ Vybrat vhodný hardware GPU ↳ Odešlat práci do Hugging Face Jobs ↳ Sledovat pokrok ve výcviku ↳ Pushnout hotový model do Hubu Model trénuje na GPU Hugging Face, zatímco děláte jiné věci. Když je hotovo, váš vyladěný model se objeví na Hubu připravený k použití. Toto není ukázka hraček. Tato dovednost podporuje výrobní metody výcviku: SFT, DPO a GRPO. Můžete trénovat modely od parametrů 0,5B do 70B, převádět je do GGUF pro lokální nasazení a spouštět vícestupňové pipeline. Kompletní tréninkový běh na malém modelu stojí jen asi 0,30 $. ...