LLM'leri 2 yıldan fazla süredir ince ayar yapıyorum! İşte görsellerle açıklanan en iyi 5 LLM ince ayar tekniği: Öncelikle, LLM ince ayarlamasında ne fark var? Geleneksel ince ayar LLM'ler (milyarlarca param; 100 GB) için pratik değildir. Bu tür hesaplamalar herkese erişilmediği için, parametre verimli ince ayar (PEFT) ortaya çıktı. Her tekniğin detaylarına girmeden önce, bu teknikleri daha iyi anlamanıza yardımcı olacak bazı arka planlar şunlardır: LLM ağırlıkları, ince ayar sırasında ayarlanmış sayıların matrisleridir. Çoğu PEFT tekniği, bu matrislerin daha düşük seviyeli bir uyarlanmasını içerir; orijinalde depolanan bilgiyi temsil edebilen daha küçük boyutlu bir matris bulunur. Şimdi bir matrisin derecesini temel bir şekilde anladığımızda, farklı ince ayar tekniklerini anlamak için iyi bir konumdayız. (her tekniğin görsel açıklaması için aşağıdaki görsele bakınız) 1) LoRA - Ağırlık matrislerinin yanına iki düşük seviyeli eğitilebilir matris, A ve B, eklenin. - W'yi ince ayar etmek yerine, bu düşük seviyeli matrislerdeki güncellemeleri ayarlayın. En büyük LLM'ler için bile, LoRA matrisleri birkaç MB bellek kaplar. 2) LoRA-FA LoRA, toplam eğitilebilir parametreleri önemli ölçüde azaltsa da, düşük seviye ağırlıkları güncellemek için önemli bir aktivasyon belleği gerektirir....