Não pense nos LLMs como entidades, mas sim como simuladores. Por exemplo, ao explorar um tema, não pergunte: "O que você acha de xyz"? Não existe um "você". Da próxima vez, tente: "Qual seria um bom grupo de pessoas para explorar xyz? O que eles diriam?" O LLM pode canalizar/simular muitas perspectivas, mas não "pensa" em xyz há um tempo e com o tempo e formou suas próprias opiniões do jeito que estamos acostumados. Se você forçar isso usando "você", ele vai te dar algo ao adotar um vetor de embedding de personalidade implícito pelas estatísticas dos seus dados de ajuste fino e então simular isso. Tudo bem fazer isso, mas há muito menos mistério do que as pessoas ingenuamente atribuem a "perguntar para uma IA".