Non pensare agli LLM come a entità, ma come a simulatori. Ad esempio, quando esplori un argomento, non chiedere: "Cosa ne pensi di xyz"? Non c'è un "tu". La prossima volta prova: "Quale sarebbe un buon gruppo di persone per esplorare xyz? Cosa direbbero?" L'LLM può canalizzare/simulare molte prospettive, ma non ha "pensato a" xyz per un po' e nel tempo non ha formato le proprie opinioni nel modo a cui siamo abituati. Se lo costringi usando "tu", ti darà qualcosa adottando un vettore di embedding della personalità implicato dalle statistiche dei suoi dati di finetuning e poi simulerà quello. Va bene farlo, ma c'è molto meno mistero rispetto a quello che trovo le persone attribuire ingenuamente a "chiedere a un'AI".