Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Uma coisa que os agentes LLM não conseguem fazer bem:
Qualquer chatbot tradicional pode seguir o script, enquanto os agentes LLM tendem a se desviar e levar os clientes a conversas estranhas.
Mas, claro, os chatbots antigos parecem robóticos, e os clientes não querem falar com eles.
Eles são confiáveis, mas as pessoas não gostam deles,
Os agentes LLM são o oposto.
Eles são fluidos e adaptáveis, mas podem dizer qualquer coisa. Você está literalmente a um delírio de um desastre.
Os caras por trás da Parlant estão fazendo algo realmente inteligente com sua nova versão: Você pode construir um agente com o melhor dos dois mundos.
O agente pode mudar dinamicamente entre um agente LLM e o modo estrito com base no que está acontecendo na conversa.
O risco não é uniforme ao longo de uma conversa:
1. Quando um cliente faz uma pergunta casual sobre um produto, a Parlant envolve o LLM para gerar uma resposta fluida e útil.
2. Quando um cliente pede um reembolso, a Parlant ativa o modo estrito para retornar apenas modelos de resposta aprovados e contextualizados.
Você controla o "modo de composição" do agente com base em observações de linguagem natural sobre o estado atual da conversa.
Esta é uma ideia realmente legal. Deve melhorar significativamente o estado da arte atual em chatbots.
Você pode conferir aqui:
O diagrama anexado mostra como funciona o modo de composição dinâmica.
Top
Classificação
Favoritos
