AK sugerează că atunci când vorbești cu LLM-uri (modele lingvistice mari), ar trebui să folosești mai puțin "tu" pentru a vedea asta, dar mai întâi să întrebi cine sunt experții din acest domeniu, apoi să lași AI-ul să simuleze experții din domeniu pentru a răspunde la întrebări, astfel încât să obții rezultate mai bune. Andrej Karpathy a spus ceva similar la State of GPT acum mai bine de 2 ani. (Vezi recenziile) Andrej Karpathy: Nu te gândi la modelele mari de limbaj (LLM-uri) ca la "entități" vii, ci ca la "simulatoare" super-puternice. De exemplu, când vrei să explorezi un subiect în profunzime, nu întreba: "Ce părere ai despre xyz?" Pentru că nu există deloc "tu". Data viitoare, încearcă să pui o întrebare diferită: "Dacă am explora subiectul xyz, cine ar fi cel mai bun grup de oameni, cum ar fi experți sau părți interesate? Ce vor spune? ” Modelele lingvistice mari pot ghida și simula o gamă largă de perspective la îndemână. Dar nu este ca noi, oamenii, care ne-am format propriile viziuni după o lungă perioadă de "gândire" și precipitare xyz. Dacă insiști să folosești cuvântul "tu" pentru a forța o întrebare, modelul va fi forțat să numească implicit un "vector de încorporare a personalității" bazat pe ajustarea fină a datelor, apoi să pretindă că este acea personalitate pentru a simula un răspuns pentru tine. (Notă: Pe scurt, când întrebi "tu", AI-ul pur și simplu pune o mască de "față publică" pentru a te potrivi pe baza celor mai comune tipare de răspuns din datele de antrenament, în loc să producă o personalitate conștientă de sine.) ) Desigur, este în regulă să faci asta și vei primi răspunsul. Dar observ că mulți oameni atribuie naiv asta faptului că "întreabă AI-ul ce crede" și cred că este un mister. De fapt, odată ce înțelegi cum este simulat, acest mister dispare.