Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Я настраиваю LLM более 2 лет!
Вот 5 лучших техник настройки LLM, объясненных с помощью визуализаций:
Прежде всего, чем же отличается настройка LLM?
Традиционная настройка непрактична для LLM (миллиарды параметров; сотни ГБ).
Поскольку такой вычислительной мощности нет у всех, появилась настройка с эффективным использованием параметров (PEFT).
Прежде чем углубиться в детали каждой техники, вот немного информации, которая поможет вам лучше понять эти техники:
Весовые коэффициенты LLM — это матрицы чисел, которые корректируются во время настройки.
Большинство техник PEFT включает в себя поиск адаптации с низким рангом этих матриц, меньшей размерности, которая все еще может представлять информацию, хранящуюся в оригинале.
Теперь, имея базовое понимание ранга матрицы, мы готовы понять различные техники настройки.
(смотрите изображение ниже для визуального объяснения каждой техники)
1) LoRA
- Добавьте две обучаемые матрицы с низким рангом, A и B, наряду с весовыми матрицами.
- Вместо настройки W, корректируйте обновления в этих матрицах с низким рангом.
Даже для самых больших LLM матрицы LoRA занимают всего несколько МБ памяти.
2) LoRA-FA
Хотя LoRA значительно уменьшает общее количество обучаемых параметров, она требует значительной активационной памяти для обновления весов с низким рангом....

Топ
Рейтинг
Избранное

