Uma coisa que os agentes LLM não conseguem fazer bem: Qualquer chatbot tradicional pode seguir o script, enquanto os agentes LLM tendem a se desviar e levar os clientes a conversas estranhas. Mas, claro, os chatbots antigos parecem robóticos, e os clientes não querem falar com eles. Eles são confiáveis, mas as pessoas não gostam deles, Os agentes LLM são o oposto. Eles são fluidos e adaptáveis, mas podem dizer qualquer coisa. Você está literalmente a um delírio de um desastre. Os caras por trás da Parlant estão fazendo algo realmente inteligente com sua nova versão: Você pode construir um agente com o melhor dos dois mundos. O agente pode mudar dinamicamente entre um agente LLM e o modo estrito com base no que está acontecendo na conversa. O risco não é uniforme ao longo de uma conversa: 1. Quando um cliente faz uma pergunta casual sobre um produto, a Parlant envolve o LLM para gerar uma resposta fluida e útil. 2. Quando um cliente pede um reembolso, a Parlant ativa o modo estrito para retornar apenas modelos de resposta aprovados e contextualizados. Você controla o "modo de composição" do agente com base em observações de linguagem natural sobre o estado atual da conversa. Esta é uma ideia realmente legal. Deve melhorar significativamente o estado da arte atual em chatbots. Você pode conferir aqui: O diagrama anexado mostra como funciona o modo de composição dinâmica.