Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AK sugeruje, aby podczas rozmowy z LLM (dużymi modelami językowymi) rzadziej używać pytania „co ty o tym myślisz”, a zamiast tego najpierw zapytać, kto są ekspertami w danej dziedzinie, a następnie pozwolić AI na symulację odpowiedzi tych ekspertów, co przyniesie lepsze efekty.
Ponad 2 lata temu Andrej Karpathy również mówił coś podobnego w State of GPT. (zobacz komentarz)
Andrej Karpathy:
Nie traktujcie dużych modeli językowych (LLMs) jako żywych „istot”, ale jako super potężne „symulatory”.
Na przykład, gdy chcesz zgłębić jakiś temat, nie pytaj:
„Co myślisz o xyz?”
Ponieważ nie ma czegoś takiego jak „ty”.
Spróbuj następnym razem zmienić pytanie:
„Jeśli chcemy omówić temat xyz, kto byłby najbardziej odpowiednią grupą ludzi (na przykład ekspertów lub interesariuszy)? Co by powiedzieli?”
Duże modele językowe mogą swobodnie prowadzić i symulować różne perspektywy. Ale nie są one jak my, ludzie, którzy przez długi czas „myślą” i przetwarzają xyz, aby wykształcić swoje poglądy.
Jeśli musisz użyć słowa „ty” w swoim pytaniu, model będzie zmuszony do oparcia się na statystycznych wzorcach danych, na których został dostosowany (finetuning), przywołując ukrytą „wektor osobowości (personality embedding vector)”, a następnie odgrywając tę osobowość, aby symulować odpowiedź. (Uwaga: mówiąc prosto, gdy pytasz „ty”, AI po prostu zakłada „maskę ogółu”, aby dostosować się do ciebie, opierając się na najczęstszych wzorcach odpowiedzi w danych treningowych, a nie naprawdę tworzy osobowość z samoświadomością.)
Oczywiście, to nie jest problem, możesz uzyskać odpowiedź. Ale zauważyłem, że wiele osób naiwnie sprowadza to do „zapytania AI, co myśli”, uważając to za coś tajemniczego. W rzeczywistości, gdy zrozumiesz, jak to symuluje, ta tajemnicza zasłona zostaje odsłonięta.
Najlepsze
Ranking
Ulubione

