LLM代理无法很好完成的一件事: 任何老派聊天机器人都可以保持在脚本上,而LLM代理往往会失控,引导客户进入奇怪的对话。 但当然,老聊天机器人感觉很机械,客户不想和它们交谈。 它们是可靠的,但人们不喜欢它们, LLM代理则正好相反。 它们流畅且适应性强,但可以说任何话。你实际上只需一次幻觉就可能导致灾难。 Parlant背后的人正在用他们的新版本做一些非常聪明的事情:你可以构建一个兼具两者优点的代理。 该代理可以根据对话中发生的事情动态切换在LLM代理和严格模式之间。 风险在对话中并不均匀: 1. 当客户询问一个随意的产品问题时,Parlant会调用LLM生成流畅且有帮助的回答。 2. 当客户要求退款时,Parlant会启用严格模式,仅返回经过批准的、基于上下文的响应模板。 你可以根据对话当前状态的自然语言观察来控制代理的“组成模式”。 这是一个非常酷的想法。它应该显著改善当前聊天机器人的技术水平。 你可以在这里查看: 附图展示了动态组成模式的工作原理。