トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
私は2年以上にわたりLLMの微調整を続けています!
以下は、ビジュアルで解説されたトップ5のLLMファインチューニング技術です:
まず第一に、LLMのファインチューニングは何がそんなに違うのでしょうか?
従来のファインチューニングはLLM(数十億のパラメータ、100 Gbps)には実用的ではありません。
この種の計算がすべての人に利用可能ではないため、パラメータ効率的ファインチューニング(PEFT)が誕生しました。
各技術の詳細に入る前に、これらの技術をよりよく理解するための背景を説明します。
LLMの重みは、ファインチューニングの過程で調整された数値の行列です。
ほとんどのPEFT手法は、これらの行列の低ランク適応を見つけることであり、元の情報を表現できるより低次元の行列です。
行列のランクの基本的な理解があれば、さまざまなファインチューニング技術を理解する良い立場にいます。
(各技術の視覚的な説明は下の画像を参照してください)
1) ロラ
- 重み行列と共に、低ランクの訓練可能な行列AとBを追加します。
- Wを微調整する代わりに、これらの低ランク行列の更新を調整します。
最大級のLLMであっても、LoRAの行列は数MBのメモリを消費します。
2) ロラ-FA
LoRAは訓練可能なパラメータの総数を大幅に減少させますが、低ランクの重みを更新するにはかなりの活性化メモリが必要です。...

トップ
ランキング
お気に入り

