HuggingFaceのおかげで、微調整が10倍楽になりました! どんなオープンソースのLLMでも微調整するための英語一行。 Claudeや他のコーディングエージェントに組み込める新しい「スキル」がリリースされました。 トレーニングスクリプトを書くだけでなく、実際にクラウドGPUにジョブを送信し、進捗を監視し、完成したモデルをハブにプッシュします。 仕組みは以下の通りです: あなたはこう言っています: 「open-r1/codeforces-cots データセットでQwen3-0.6Bを微調整する」 そしてクロードはこうするだろう: ↳ データセットのフォーマットを検証する ↳ 適切なGPUハードウェアを選択する ↳ Hugging Face Jobsに求人を提出してください ↳ トレーニング進捗の監視 ↳ 完成したモデルをハブに押し込む モデルはHugging Face GPUでトレーニングしながら、他の作業をします。完成すると、細かく調整したモデルがハブに表示され、すぐに使えます。 これはおもちゃのデモじゃない。 このスキルは、SFT、DPO、GRPOの生産訓練方法をサポートします。0.5Bから70Bのパラメータを訓練し、GGUFに変換してローカル展開し、マルチステージパイプラインを実行できます。 小型モデルでのフルトレーニングランの費用は約0.30ドルです。 ...