Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
HuggingFace щойно зробив налаштування у 10 разів простішим!
Один рядок англійської для тонкого налаштування будь-якої відкритої LLM.
Вони випустили нову «навичку», яку можна підключити до Claude або будь-якого програмного агента.
Він не просто пише навчальні скрипти, а й фактично відправляє завдання в хмарні GPU, відстежує прогрес і відправляє готові моделі на Hub.
Ось як це працює:
Ви кажете щось на кшталт:
"Точне налаштування Qwen3-0.6B у датасеті open-r1/codeforces-cots"
І Клод буде:
↳ Перевірте формат вашого набору даних
↳ Виберіть відповідне обладнання GPU
↳ Подати роботу на Hugging Face Jobs
↳ Моніторити прогрес тренувань
↳ Відштовхнути готову модель до Хаба
Модель тренується на GPU Hugging Face, поки ви займаєтеся іншими справами. Коли все готово, ваша налаштована модель з'являється на Hub, готова до використання.
Це не демонстрація іграшок.
Навичка підтримує методи виробничого навчання: SFT, DPO та GRPO. Ви можете навчати моделі від 0.5B до параметрів 70B, конвертувати їх у GGUF для локального розгортання та запускати багатоступеневі конвеєри.
Повний тренувальний забіг на маленькій моделі коштує лише близько $0.30.
...

Найкращі
Рейтинг
Вибране

