¡HuggingFace acaba de hacer que el ajuste fino sea 10 veces más fácil! Una línea en inglés para ajustar cualquier LLM de código abierto. Han lanzado una nueva "habilidad" que puedes conectar a Claude o a cualquier agente de codificación. No solo escribe scripts de entrenamiento, sino que también envía trabajos a GPUs en la nube, monitorea el progreso y sube los modelos terminados al Hub. Así es como funciona: Dices algo como: "Ajustar Qwen3-0.6B en el conjunto de datos open-r1/codeforces-cots" Y Claude hará: ↳ Validar el formato de tu conjunto de datos ↳ Seleccionar el hardware GPU apropiado ↳ Enviar el trabajo a Hugging Face Jobs ↳ Monitorear el progreso del entrenamiento ↳ Subir el modelo terminado al Hub El modelo se entrena en las GPUs de Hugging Face mientras tú haces otras cosas. Cuando termine, tu modelo ajustado aparecerá en el Hub, listo para usar. Esto no es una demostración de juguete. La habilidad soporta métodos de entrenamiento en producción: SFT, DPO y GRPO. Puedes entrenar modelos de 0.5B a 70B parámetros, convertirlos a GGUF para implementación local y ejecutar pipelines de múltiples etapas. Un entrenamiento completo en un modelo pequeño cuesta solo alrededor de $0.30. ...