Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
HuggingFace právě usnadnil ladění desetkrát jednodušší!
Jeden řádek angličtiny pro doladění jakéhokoli open-source LLM.
Vydali novou "dovednost", kterou můžete zadat do Clauda nebo jakéhokoli programátora.
Nejenže píše tréninkové skripty, ale skutečně odesílá úlohy do cloudových GPU, sleduje pokrok a posílá hotové modely do Hubu.
Takto to funguje:
Řeknete něco jako:
"Jemné vyladění Qwen3-0.6B na datasetu open-r1/codeforces-cots"
A Claude bude:
↳ Ověřte formát datové sady
↳ Vybrat vhodný hardware GPU
↳ Odešlat práci do Hugging Face Jobs
↳ Sledovat pokrok ve výcviku
↳ Pushnout hotový model do Hubu
Model trénuje na GPU Hugging Face, zatímco děláte jiné věci. Když je hotovo, váš vyladěný model se objeví na Hubu připravený k použití.
Toto není ukázka hraček.
Tato dovednost podporuje výrobní metody výcviku: SFT, DPO a GRPO. Můžete trénovat modely od parametrů 0,5B do 70B, převádět je do GGUF pro lokální nasazení a spouštět vícestupňové pipeline.
Kompletní tréninkový běh na malém modelu stojí jen asi 0,30 $.
...

Top
Hodnocení
Oblíbené

