Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A HuggingFace tornou o fine-tuning 10x mais fácil!
Uma linha em inglês para ajustar qualquer LLM de código aberto.
Eles lançaram uma nova "habilidade" que você pode conectar ao Claude ou a qualquer agente de codificação.
Não apenas escreve scripts de treinamento, mas realmente envia trabalhos para GPUs na nuvem, monitora o progresso e envia modelos finalizados para o Hub.
Aqui está como funciona:
Você diz algo como:
"Ajustar Qwen3-0.6B no conjunto de dados open-r1/codeforces-cots"
E o Claude irá:
↳ Validar o formato do seu conjunto de dados
↳ Selecionar o hardware de GPU apropriado
↳ Enviar o trabalho para Hugging Face Jobs
↳ Monitorar o progresso do treinamento
↳ Enviar o modelo finalizado para o Hub
O modelo treina nas GPUs da Hugging Face enquanto você faz outras coisas. Quando terminar, seu modelo ajustado aparece no Hub, pronto para uso.
Isso não é uma demonstração de brinquedo.
A habilidade suporta métodos de treinamento em produção: SFT, DPO e GRPO. Você pode treinar modelos de 0.5B a 70B parâmetros, convertê-los para GGUF para implantação local e executar pipelines de múltiplas etapas.
Uma execução completa de treinamento em um modelo pequeno custa apenas cerca de $0.30.
...

Top
Classificação
Favoritos

