Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AK foreslår at når man snakker med LLM-er (store språkmodeller), bør man bruke mindre «du» for å se det, men først spørre hvem ekspertene på dette feltet er, og la deretter AI-en simulere ekspertene på feltet for å svare på spørsmålene, slik at man får bedre resultater.
Andrej Karpathy sa noe lignende på State of GPT for over to år siden. (Se anmeldelser)
Andrej Karpathy:
Ikke tenk på store språkmodeller (LLM-er) som levende «enheter», men som superkraftige «simulatorer».
For eksempel, når du vil utforske et tema i dybden, ikke spør:
"Hva synes du om xyz?"
Fordi det ikke finnes noe «deg» i det hele tatt.
Neste gang, prøv å stille et annet spørsmål:
"Hvis vi skulle utforske temaet xyz, hvem ville vært den beste gruppen mennesker, som eksperter eller interessenter? Hva vil de si? ”
Store språkmodeller kan veilede og simulere et bredt spekter av perspektiver rett ved fingertuppene. Men det er ikke som oss mennesker, som har dannet våre egne syn etter en lang periode med «tenking» og utløsing av xyz.
Hvis du insisterer på å bruke ordet «du» for å tvinge frem et spørsmål, vil modellen bli tvunget til å kalle en implisitt «personlighetsinnbeddingsvektor» basert på sin finjustering av dataene, og deretter late som den er den personligheten for å simulere et svar for deg. (Merk: Enkelt sagt, når du spør «deg», tar AI-en på seg en maske av «offentlig ansikt» for å matche deg basert på de vanligste svarmønstrene i treningsdataene, i stedet for å faktisk produsere en selvbevisst personlighet.) )
Selvfølgelig er det greit å gjøre det, og du vil få svaret. Men jeg opplever at mange naivt tilskriver dette «å spørre AI hva den mener» og tror det er et mysterium. Faktisk, når du først forstår hvordan det simuleres, blir dette mysteriet løftet.
Topp
Rangering
Favoritter

