AK sugeruje, aby podczas rozmowy z LLM (dużymi modelami językowymi) rzadziej używać pytania „co ty o tym myślisz”, a zamiast tego najpierw zapytać, kto są ekspertami w danej dziedzinie, a następnie pozwolić AI na symulację odpowiedzi tych ekspertów, co przyniesie lepsze efekty. Ponad 2 lata temu Andrej Karpathy również mówił coś podobnego w State of GPT. (zobacz komentarz) Andrej Karpathy: Nie traktujcie dużych modeli językowych (LLMs) jako żywych „istot”, ale jako super potężne „symulatory”. Na przykład, gdy chcesz zgłębić jakiś temat, nie pytaj: „Co myślisz o xyz?” Ponieważ nie ma czegoś takiego jak „ty”. Spróbuj następnym razem zmienić pytanie: „Jeśli chcemy omówić temat xyz, kto byłby najbardziej odpowiednią grupą ludzi (na przykład ekspertów lub interesariuszy)? Co by powiedzieli?” Duże modele językowe mogą swobodnie prowadzić i symulować różne perspektywy. Ale nie są one jak my, ludzie, którzy przez długi czas „myślą” i przetwarzają xyz, aby wykształcić swoje poglądy. Jeśli musisz użyć słowa „ty” w swoim pytaniu, model będzie zmuszony do oparcia się na statystycznych wzorcach danych, na których został dostosowany (finetuning), przywołując ukrytą „wektor osobowości (personality embedding vector)”, a następnie odgrywając tę osobowość, aby symulować odpowiedź. (Uwaga: mówiąc prosto, gdy pytasz „ty”, AI po prostu zakłada „maskę ogółu”, aby dostosować się do ciebie, opierając się na najczęstszych wzorcach odpowiedzi w danych treningowych, a nie naprawdę tworzy osobowość z samoświadomością.) Oczywiście, to nie jest problem, możesz uzyskać odpowiedź. Ale zauważyłem, że wiele osób naiwnie sprowadza to do „zapytania AI, co myśli”, uważając to za coś tajemniczego. W rzeczywistości, gdy zrozumiesz, jak to symuluje, ta tajemnicza zasłona zostaje odsłonięta.