Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Fac fine tuning la LLM-uri de peste 2 ani!
Iată cele mai bune 5 tehnici de ajustare fină a LLM-urilor, explicate vizual:
În primul rând, ce este atât de diferit la finetuning-ul LLM?
Ajustarea fină tradițională este nepractică pentru LLM-uri (miliarde de parametri; 100s GB).
Deoarece acest tip de calcul nu este accesibil tuturor, a apărut finetuning-ul eficient pentru parametri (PEFT).
Înainte să intrăm în detalii despre fiecare tehnică, iată câteva informații de bază care te vor ajuta să înțelegi mai bine aceste tehnici:
Greutățile LLM sunt matrici de numere ajustate în timpul finetuning-ului.
Majoritatea tehnicilor PEFT implică găsirea unei adaptări de rang inferior a acestor matrici, o matrice de dimensiune mai mică care poate totuși reprezenta informația stocată în original.
Acum, având o înțelegere de bază a rangului unei matrice, suntem într-o poziție bună pentru a înțelege diferitele tehnici de finetuning.
(vezi imaginea de mai jos pentru o explicație vizuală a fiecărei tehnici)
1) LoRA
- Adaugă două matrice antrenabile de rang scăzut, A și B, alături de matrici de greutăți.
- În loc să se ajusteze fin W, se ajustează actualizările în aceste matrici de rang mic.
Chiar și pentru cele mai mari LLM-uri, matricile LoRA ocupă câteva MB de memorie.
2) LoRA-FA
Deși LoRA scade semnificativ parametrii total antrenabili, necesită o memorie de activare substanțială pentru a actualiza greutățile de rang inferior....

Limită superioară
Clasament
Favorite

