Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
HuggingFace hat das Fine-Tuning um das 10-fache einfacher gemacht!
Eine Zeile Englisch, um jedes Open-Source-LLM zu fine-tunen.
Sie haben eine neue "Fähigkeit" veröffentlicht, die Sie in Claude oder jeden Coding-Agenten einfügen können.
Es schreibt nicht nur Trainingsskripte, sondern reicht tatsächlich Aufträge an Cloud-GPUs ein, überwacht den Fortschritt und schiebt fertige Modelle in das Hub.
So funktioniert es:
Sie sagen etwas wie:
"Fine-tune Qwen3-0.6B auf dem open-r1/codeforces-cots-Datensatz"
Und Claude wird:
↳ Ihr Datensatzformat validieren
↳ Geeignete GPU-Hardware auswählen
↳ Den Auftrag an Hugging Face Jobs einreichen
↳ Den Trainingsfortschritt überwachen
↳ Das fertige Modell in das Hub schieben
Das Modell wird auf Hugging Face GPUs trainiert, während Sie andere Dinge tun. Wenn es fertig ist, erscheint Ihr fine-getuntes Modell im Hub, bereit zur Verwendung.
Das ist keine Spielzeug-Demo.
Die Fähigkeit unterstützt Produktions-Trainingsmethoden: SFT, DPO und GRPO. Sie können Modelle von 0,5B bis 70B Parametern trainieren, sie in GGUF für lokale Bereitstellung umwandeln und mehrstufige Pipelines ausführen.
Ein vollständiger Trainingslauf auf einem kleinen Modell kostet nur etwa 0,30 $.
...

Top
Ranking
Favoriten

