A AK sugere que, ao falar com LLMs (grandes modelos de linguagem), você deve usar menos "você" para enxergar, mas primeiro pergunte quem são os especialistas nessa área e depois deixe a IA simular os especialistas para responder às perguntas, a fim de obter melhores resultados. Andrej Karpathy disse algo parecido no State of GPT há mais de 2 anos. (Veja as resenhas) Andrej Karpathy: Não pense em grandes modelos de linguagem (LLMs) como "entidades" vivas, mas sim como "simuladores" superpoderosos. Por exemplo, quando quiser explorar um tema em profundidade, não pergunte: "O que você acha de xyz?" Porque não existe "você" de forma alguma. Da próxima vez, tente fazer uma pergunta diferente: "Se fôssemos explorar o tema xyz, quem seria o melhor grupo de pessoas, como especialistas ou partes interessadas? O que eles vão dizer? ” Grandes modelos de linguagem podem guiar e simular uma grande variedade de perspectivas ao seu alcance. Mas não é como nós, humanos, que formamos suas próprias opiniões após um longo período de "pensar" e precipitar xyz. Se você insistir em usar a palavra "você" para forçar uma pergunta, o modelo será forçado a chamar um "vetor de embedding de personalidade" implícito com base no ajuste fino dos dados, e então fingir ser essa personalidade para simular uma resposta para você. (Nota: Em termos simples, quando você pergunta "você", a IA simplesmente coloca uma máscara de "cara pública" para combinar com você com base nos padrões de resposta mais comuns nos dados de treinamento, em vez de realmente produzir uma personalidade autoconsciente.) ) Claro, tudo bem fazer isso, e você vai conseguir a resposta. Mas percebo que muitas pessoas ingenuamente atribuem isso a "perguntar à IA o que ela pensa" e acham que é um mistério. Na verdade, uma vez que você entende como ela é simulada, esse mistério é resolvido.