Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
HuggingFace właśnie uczynił fine-tuning 10 razy łatwiejszym!
Jedna linia w języku angielskim, aby dostosować dowolny otwarty LLM.
Wydali nową "umiejętność", którą możesz podłączyć do Claude'a lub dowolnego agenta kodującego.
Nie tylko pisze skrypty treningowe, ale faktycznie przesyła zadania do chmurowych GPU, monitoruje postęp i przesyła gotowe modele do Hubu.
Oto jak to działa:
Mówisz coś takiego jak:
"Dostosuj Qwen3-0.6B na zbiorze danych open-r1/codeforces-cots"
A Claude:
↳ Waliduje format twojego zbioru danych
↳ Wybiera odpowiedni sprzęt GPU
↳ Przesyła zadanie do Hugging Face Jobs
↳ Monitoruje postęp treningu
↳ Przesyła gotowy model do Hubu
Model trenuje na GPU Hugging Face, podczas gdy ty robisz inne rzeczy. Gdy to się skończy, twój dostosowany model pojawia się na Hubie, gotowy do użycia.
To nie jest zabawkowa demonstracja.
Umiejętność wspiera metody treningowe w produkcji: SFT, DPO i GRPO. Możesz trenować modele od 0.5B do 70B parametrów, konwertować je na GGUF do lokalnego wdrożenia i uruchamiać wieloetapowe pipeline'y.
Pełny cykl treningowy na małym modelu kosztuje tylko około 0,30 USD.
...

Najlepsze
Ranking
Ulubione

