AK sugere que, ao conversar com LLM (Modelos de Linguagem de Grande Escala), você deve evitar usar "o que você acha" e, em vez disso, perguntar quem são os especialistas nessa área, e então deixar a IA simular as respostas desses especialistas, assim você obterá melhores resultados. Mais de dois anos atrás, Andrej Karpathy também mencionou algo semelhante no State of GPT. (veja os comentários) Andrej Karpathy: Nunca trate os Modelos de Linguagem de Grande Escala (LLMs) como se fossem "entidades" vivas, mas sim como superpoderosos "simuladores". Por exemplo, quando você quiser explorar um tópico em profundidade, nunca pergunte: "O que você acha sobre xyz?" Porque não existe um "você" de fato. Na próxima vez, tente reformular a pergunta: "Se quisermos discutir o tópico xyz, quem seriam as pessoas mais adequadas (como especialistas ou partes interessadas)? O que elas diriam?" Os Modelos de Linguagem de Grande Escala podem facilmente guiar e simular uma variedade de perspectivas. Mas eles não são como nós, humanos, que formamos nossas opiniões após longos períodos de "reflexão" e sedimentação sobre xyz. Se você insistir em usar a palavra "você" para forçar uma pergunta, o modelo será obrigado a seguir as regras estatísticas dos dados de ajuste fino (finetuning) e invocar um tipo de "vetor de incorporação de personalidade (personality embedding vector)" implícito, e então desempenhar essa personalidade para simular uma resposta para você. (Nota: em termos simples, quando você pergunta "você", a IA apenas adota a máscara de um "rosto comum" com base nos padrões de resposta mais frequentes nos dados de treinamento, em vez de realmente gerar uma personalidade com autoconsciência.) Isso não é um problema, você ainda pode obter uma resposta. Mas percebo que muitas pessoas ingenuamente atribuem isso a "perguntar à IA o que ela pensa", achando que é algo muito misterioso. Na verdade, uma vez que você entende como ela simula, esse véu de mistério é levantado.