トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
HuggingFaceのおかげで、微調整が10倍楽になりました!
どんなオープンソースのLLMでも微調整するための英語一行。
Claudeや他のコーディングエージェントに組み込める新しい「スキル」がリリースされました。
トレーニングスクリプトを書くだけでなく、実際にクラウドGPUにジョブを送信し、進捗を監視し、完成したモデルをハブにプッシュします。
仕組みは以下の通りです:
あなたはこう言っています:
「open-r1/codeforces-cots データセットでQwen3-0.6Bを微調整する」
そしてクロードはこうするだろう:
↳ データセットのフォーマットを検証する
↳ 適切なGPUハードウェアを選択する
↳ Hugging Face Jobsに求人を提出してください
↳ トレーニング進捗の監視
↳ 完成したモデルをハブに押し込む
モデルはHugging Face GPUでトレーニングしながら、他の作業をします。完成すると、細かく調整したモデルがハブに表示され、すぐに使えます。
これはおもちゃのデモじゃない。
このスキルは、SFT、DPO、GRPOの生産訓練方法をサポートします。0.5Bから70Bのパラメータを訓練し、GGUFに変換してローカル展開し、マルチステージパイプラインを実行できます。
小型モデルでのフルトレーニングランの費用は約0.30ドルです。
...

トップ
ランキング
お気に入り

