HuggingFace ha appena reso il fine-tuning 10 volte più facile! Una riga di inglese per fare il fine-tuning di qualsiasi LLM open-source. Hanno rilasciato una nuova "abilità" che puoi collegare a Claude o a qualsiasi agente di codifica. Non scrive solo script di addestramento, ma invia effettivamente lavori a GPU cloud, monitora i progressi e carica i modelli finiti nell'Hub. Ecco come funziona: Dici qualcosa come: "Fine-tune Qwen3-0.6B sul dataset open-r1/codeforces-cots" E Claude farà: ↳ Validare il formato del tuo dataset ↳ Selezionare l'hardware GPU appropriato ↳ Inviare il lavoro a Hugging Face Jobs ↳ Monitorare i progressi dell'addestramento ↳ Caricare il modello finito nell'Hub Il modello si allena sulle GPU di Hugging Face mentre tu fai altre cose. Quando è finito, il tuo modello fine-tuned appare nell'Hub, pronto per essere utilizzato. Non è una demo giocattolo. L'abilità supporta metodi di addestramento in produzione: SFT, DPO e GRPO. Puoi addestrare modelli da 0.5B a 70B parametri, convertirli in GGUF per il deployment locale e eseguire pipeline multi-stadio. Un'intera sessione di addestramento su un modello piccolo costa solo circa $0.30. ...