В дизайне AI-агентов сегодня существует фундаментальное напряжение! И это становится очевидным только тогда, когда вы начинаете строить для производства: Чем строже вы соблюдаете инструкцию, тем больше вы жертвуете контекстуальной нюансировкой. Подумайте об этом так. Когда вы создаете агента, ориентированного на клиента, некоторые инструкции действительно являются обязательными. Таким образом, вы хотите, чтобы ваш агент строго их соблюдал, даже если это звучит роботизированно. Например, такие инструкции, как раскрытие информации о соблюдении норм в финансах или предупреждения о безопасности в здравоохранении, не могут допускать никаких ошибок. Но другие инструкции являются мягкими рекомендациями, такими как соответствие тону клиента или краткость ответов. Они должны влиять на разговор, а не доминировать в нем. Проблема в том, что большинство архитектур агентов не позволяют вам так легко выразить это различие. Каждая инструкция обычно получает одинаковый уровень соблюдения, поэтому вы либо вынуждены быть строгими ко всему и звучать роботизированно, либо быть гибкими ко всему и рисковать упустить критически важные правила. И нет, вы не можете просто акцентировать внимание на определенных инструкциях в самом запросе, потому что само наличие инструкции в запросе уже искажает поведение модели. Акцент только добавляет больше искажения к существующему. Но мне интересен последний контроль "уровней критичности" от Parlant (с открытым исходным кодом и 18k звезд). Это позволяет вам указать вашему агенту, сколько внимания уделять каждой инструкции. ``` agent.create_guideline( condition="Клиент спрашивает о лекарствах", action="Направить к поставщику медицинских услуг",...