Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
HuggingFace tocmai a făcut ajustarea fină de 10 ori mai ușoară!
O linie de engleză pentru a perfecționa orice LLM open-source.
Au lansat o nouă "abilitate" pe care o poți introduce în Claude sau în orice agent de programare.
Nu doar scrie scripturi de antrenament, ci trimite efectiv joburi către GPU-uri cloud, monitorizează progresul și trimite modelele finalizate către Hub.
Iată cum funcționează:
Spui ceva de genul:
"Ajustează fin Qwen3-0.6B pe setul de date open-r1/codeforces-cots"
Iar Claude va:
↳ Validează formatul setului tău de date
↳ Selectarea hardware-ului GPU potrivit
↳ Trimite jobul la Îmbrățișarea Joburilor cu Fața Îmbrățișată
↳ Monitorizarea progresului instruirii
↳ Împinge modelul final către Hub
Modelul se antrenează pe GPU-uri Hugging Face în timp ce faci alte lucruri. Când este gata, modelul tău reglat fin apare pe Hub, gata de folosit.
Aceasta nu este o demonstrație de jucării.
Această abilitate susține metodele de instruire în producție: SFT, DPO și GRPO. Poți antrena modele de la 0.5B la 70B, le poți converti în GGUF pentru implementare locală și poți rula pipeline-uri multi-etapă.
Un antrenament complet pe un model mic costă doar aproximativ 0,30 dolari.
...

Limită superioară
Clasament
Favorite

