Я настраиваю LLM более 2 лет! Вот 5 лучших техник настройки LLM, объясненных с помощью визуализаций: Прежде всего, чем же отличается настройка LLM? Традиционная настройка непрактична для LLM (миллиарды параметров; сотни ГБ). Поскольку такой вычислительной мощности нет у всех, появилась настройка с эффективным использованием параметров (PEFT). Прежде чем углубиться в детали каждой техники, вот немного информации, которая поможет вам лучше понять эти техники: Весовые коэффициенты LLM — это матрицы чисел, которые корректируются во время настройки. Большинство техник PEFT включает в себя поиск адаптации с низким рангом этих матриц, меньшей размерности, которая все еще может представлять информацию, хранящуюся в оригинале. Теперь, имея базовое понимание ранга матрицы, мы готовы понять различные техники настройки. (смотрите изображение ниже для визуального объяснения каждой техники) 1) LoRA - Добавьте две обучаемые матрицы с низким рангом, A и B, наряду с весовыми матрицами. - Вместо настройки W, корректируйте обновления в этих матрицах с низким рангом. Даже для самых больших LLM матрицы LoRA занимают всего несколько МБ памяти. 2) LoRA-FA Хотя LoRA значительно уменьшает общее количество обучаемых параметров, она требует значительной активационной памяти для обновления весов с низким рангом....