Od ponad 2 lat dostosowuję LLM-y! Oto 5 najlepszych technik dostosowywania LLM-ów, wyjaśnionych z wizualizacjami: Przede wszystkim, co takiego różni dostosowywanie LLM-ów? Tradycyjne dostosowywanie jest niepraktyczne dla LLM-ów (miliony parametrów; setki GB). Ponieważ tego rodzaju obliczenia nie są dostępne dla wszystkich, powstało dostosowywanie efektywne pod względem parametrów (PEFT). Zanim przejdziemy do szczegółów każdej techniki, oto kilka informacji, które pomogą Ci lepiej zrozumieć te techniki: Wagi LLM-ów to macierze liczb dostosowywane podczas dostosowywania. Większość technik PEFT polega na znalezieniu adaptacji o niższej randze tych macierzy, mniejszej macierzy, która nadal może reprezentować informacje przechowywane w oryginalnej. Teraz, mając podstawowe zrozumienie rangi macierzy, jesteśmy w dobrej pozycji, aby zrozumieć różne techniki dostosowywania. (zobacz obrazek poniżej, aby uzyskać wizualne wyjaśnienie każdej techniki) 1) LoRA - Dodaj dwie niskorankowe macierze do uczenia, A i B, obok macierzy wag. - Zamiast dostosowywać W, dostosuj aktualizacje w tych niskorankowych macierzach. Nawet dla największych LLM-ów, macierze LoRA zajmują tylko kilka MB pamięci. 2) LoRA-FA Chociaż LoRA znacznie zmniejsza całkowitą liczbę parametrów do uczenia, wymaga znacznej pamięci aktywacji do aktualizacji niskorankowych wag....