私は2年以上にわたりLLMの微調整を続けています! 以下は、ビジュアルで解説されたトップ5のLLMファインチューニング技術です: まず第一に、LLMのファインチューニングは何がそんなに違うのでしょうか? 従来のファインチューニングはLLM(数十億のパラメータ、100 Gbps)には実用的ではありません。 この種の計算がすべての人に利用可能ではないため、パラメータ効率的ファインチューニング(PEFT)が誕生しました。 各技術の詳細に入る前に、これらの技術をよりよく理解するための背景を説明します。 LLMの重みは、ファインチューニングの過程で調整された数値の行列です。 ほとんどのPEFT手法は、これらの行列の低ランク適応を見つけることであり、元の情報を表現できるより低次元の行列です。 行列のランクの基本的な理解があれば、さまざまなファインチューニング技術を理解する良い立場にいます。 (各技術の視覚的な説明は下の画像を参照してください) 1) ロラ - 重み行列と共に、低ランクの訓練可能な行列AとBを追加します。 - Wを微調整する代わりに、これらの低ランク行列の更新を調整します。 最大級のLLMであっても、LoRAの行列は数MBのメモリを消費します。 2) ロラ-FA LoRAは訓練可能なパラメータの総数を大幅に減少させますが、低ランクの重みを更新するにはかなりの活性化メモリが必要です。...