No pienses en los LLMs como entidades, sino como simuladores. Por ejemplo, al explorar un tema, no preguntes: "¿Qué opinas de xyz?" No existe un "tú". La próxima vez intenta: "¿Cuál sería un buen grupo de personas para explorar xyz? ¿Qué dirían?" El LLM puede canalizar/simular muchas perspectivas, pero no ha "pensado" en xyz desde hace tiempo y con el tiempo ha formado sus propias opiniones como estamos acostumbrados. Si lo fuerzas usando "tú", te dará algo adoptando un vector de incrustación de personalidad implícito por las estadísticas de sus datos de ajuste fino y luego simulándolo. Está bien hacerlo, pero hay mucho menos misterio de lo que la gente ingenuamente atribui a "preguntar a una IA".