HuggingFace tocmai a făcut ajustarea fină de 10 ori mai ușoară! O linie de engleză pentru a perfecționa orice LLM open-source. Au lansat o nouă "abilitate" pe care o poți introduce în Claude sau în orice agent de programare. Nu doar scrie scripturi de antrenament, ci trimite efectiv joburi către GPU-uri cloud, monitorizează progresul și trimite modelele finalizate către Hub. Iată cum funcționează: Spui ceva de genul: "Ajustează fin Qwen3-0.6B pe setul de date open-r1/codeforces-cots" Iar Claude va: ↳ Validează formatul setului tău de date ↳ Selectarea hardware-ului GPU potrivit ↳ Trimite jobul la Îmbrățișarea Joburilor cu Fața Îmbrățișată ↳ Monitorizarea progresului instruirii ↳ Împinge modelul final către Hub Modelul se antrenează pe GPU-uri Hugging Face în timp ce faci alte lucruri. Când este gata, modelul tău reglat fin apare pe Hub, gata de folosit. Aceasta nu este o demonstrație de jucării. Această abilitate susține metodele de instruire în producție: SFT, DPO și GRPO. Poți antrena modele de la 0.5B la 70B, le poți converti în GGUF pentru implementare locală și poți rula pipeline-uri multi-etapă. Un antrenament complet pe un model mic costă doar aproximativ 0,30 dolari. ...