Nie myśl o LLM jako o bytach, ale jako o symulatorach. Na przykład, gdy eksplorujesz temat, nie pytaj: "Co myślisz o xyz"? Nie ma "ciebie". Następnym razem spróbuj: "Jaka grupa ludzi byłaby dobra do zbadania xyz? Co by powiedzieli?" LLM może kanałować/symulować wiele perspektyw, ale nie "myślało o" xyz przez jakiś czas i z biegiem czasu nie wykształciło własnych opinii w sposób, do którego jesteśmy przyzwyczajeni. Jeśli zmusisz je do użycia "ty", da ci coś, przyjmując wektor osadzenia osobowości sugerowany przez statystyki jego danych do fine-tuningu, a następnie to symulując. To w porządku, ale jest w tym znacznie mniej mistycyzmu, niż naiwne przypisanie "zadawaniu pytania AI".