Il existe une tension fondamentale dans la conception des agents IA aujourd'hui ! Et cela devient évident seulement lorsque vous commencez à construire pour la production : Plus vous appliquez strictement une instruction, plus vous sacrifiez la nuance contextuelle. Pensez-y de cette façon. Lorsque vous construisez un agent orienté client, certaines instructions sont en effet non négociables. Ainsi, vous voulez que votre agent les applique strictement, même si cela sonne de manière robotique en le faisant. Par exemple, des instructions comme les divulgations de conformité en finance ou les avertissements de sécurité en santé ne peuvent tolérer aucune erreur. Mais d'autres instructions sont des suggestions douces, comme s'adapter au ton du client ou garder les réponses concises. Celles-ci devraient influencer la conversation, pas la dominer. Le problème est que la plupart des architectures d'agents ne vous permettent pas d'exprimer cette distinction aussi facilement. Chaque instruction reçoit généralement le même niveau d'application, donc vous êtes soit contraint d'être strict sur tout et de sonner robotique, soit d'être flexible sur tout et de risquer de manquer des règles critiques. Et non, vous ne pouvez pas simplement mettre l'accent sur certaines instructions dans le prompt lui-même, car la simple présence d'une instruction dans le prompt biaise déjà le comportement du modèle. L'accent ne fait qu'ajouter plus de biais sur un biais existant. Mais je trouve le dernier contrôle de "niveaux de criticité" de Parlant intéressant (open-source avec 18k étoiles). Cela vous permet de dire à votre agent combien d'attention prêter à chaque instruction. ``` agent.create_guideline( condition="Le client demande des médicaments", action="Diriger vers le fournisseur de soins de santé",...