Ikke tenk på LLM-er som enheter, men som simulatorer. For eksempel, når du utforsker et tema, ikke spør: "Hva synes du om xyz"? Det finnes ikke noe «du». Prøv neste gang: "Hva ville vært en god gruppe mennesker å utforske xyz? Hva ville de sagt?" LLM-en kan kanalisere/simulere mange perspektiver, men den har ikke «tenkt på» xyz på en stund og over tid, og dannet sine egne meninger slik vi er vant til. Hvis du tvinger det ved å bruke «du», vil det gi deg noe ved å adoptere en personlighetsinnkapslingsvektor som antydes av statistikken i finjusteringsdataene, og deretter simulere det. Det er greit å gjøre, men det er mye mindre mystikk i det enn jeg synes folk naivt tilskriver «å spørre en AI».