No pienses en los LLMs como entidades, sino como simuladores. Por ejemplo, al explorar un tema, no preguntes: "¿Qué piensas sobre xyz?" No hay un "tú". La próxima vez intenta: "¿Cuál sería un buen grupo de personas para explorar xyz? ¿Qué dirían?" El LLM puede canalizar/simular muchas perspectivas, pero no ha "pensado sobre" xyz durante un tiempo y, con el tiempo, no ha formado sus propias opiniones de la manera a la que estamos acostumbrados. Si lo fuerzas mediante el uso de "tú", te dará algo adoptando un vector de incrustación de personalidad implícito en las estadísticas de sus datos de ajuste fino y luego simulará eso. Está bien hacerlo, pero hay mucha menos mística en ello de la que encuentro que la gente atribuye ingenuamente a "preguntar a una IA".