Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
HuggingFace har nettopp gjort finjusteringen ti ganger enklere!
Én linje engelsk for å finjustere enhver åpen kildekode-LLM.
De lanserte en ny "ferdighet" du kan koble til Claude eller hvilken som helst kodeagent.
Den skriver ikke bare treningsskript, men sender faktisk jobber til sky-GPUer, overvåker fremdriften og sender ferdige modeller til Huben.
Slik fungerer det:
Du sier noe sånt som:
"Finjuster Qwen3-0.6B på open-r1/codeforces-cots-datasettet"
Og Claude vil:
↳ Valider datasettformatet ditt
↳ Velg passende GPU-maskinvare
↳ Send inn jobben til Hugging Face Jobs
↳ Overvåk treningsfremdriften
↳ Skyv den ferdige modellen til Huben
Modellen trenes på Hugging Face-GPU-er mens du gjør andre ting. Når den er ferdig, vises den finjusterte modellen på Huben, klar til bruk.
Dette er ikke en leketøysdemonstrasjon.
Ferdigheten støtter produksjonstreningsmetoder: SFT, DPO og GRPO. Du kan trene modeller fra 0,5B til 70B parametere, konvertere dem til GGUF for lokal utrulling, og kjøre flertrinns pipelines.
En full treningsrunde på en liten modell koster bare rundt 0,30 dollar.
...

Topp
Rangering
Favoritter

