Há uma tensão fundamental no design de Agentes de IA hoje! E isso se torna óbvio apenas quando você começa a construir para produção: Quanto mais estritamente você impõe uma instrução, mais você sacrifica a nuance contextual. Pense assim. Quando você está construindo um Agente voltado para o cliente, algumas instruções são de fato inegociáveis. Assim, você quer que seu Agente as imponha estritamente, mesmo que isso soe robótico ao fazê-lo. Por exemplo, instruções como divulgações de conformidade em finanças ou avisos de segurança em saúde não podem tolerar erros. Mas outras instruções são sugestões suaves, como combinar o tom do cliente ou manter as respostas concisas. Estas devem influenciar a conversa, não dominá-la. O problema é que a maioria das arquiteturas de Agentes não permite que você expresse essa distinção com facilidade. Cada instrução geralmente recebe o mesmo nível de imposição, então você é forçado a ser estrito sobre tudo e soar robótico, ou ser flexível sobre tudo e correr o risco de perder regras críticas. E não, você não pode apenas enfatizar certas instruções no próprio prompt, porque a mera presença de uma instrução no prompt já tende a enviesar o comportamento do modelo. A ênfase apenas adiciona mais viés ao viés existente. Mas acho interessante o controle mais recente da Parlant sobre os "níveis de criticidade" (código aberto com 18k estrelas). Isso permite que você diga ao seu agente quanta atenção prestar a cada instrução. ``` agent.create_guideline( condition="O cliente pergunta sobre medicamentos", action="Direcionar para o prestador de saúde",...