Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Une chose que les agents LLM ne peuvent pas bien faire :
Tout ancien chatbot peut rester sur son script, tandis que les agents LLM ont tendance à devenir indisciplinés et à entraîner les clients dans des conversations étranges.
Mais bien sûr, les anciens chatbots semblent robotiques, et les clients ne veulent pas leur parler.
Ils sont fiables, mais les gens ne les aiment pas,
Les agents LLM sont à l'opposé.
Ils sont fluides et adaptatifs, mais ils peuvent dire n'importe quoi. Vous êtes littéralement à un hallucination d'un désastre.
Les gars derrière Parlant font quelque chose de vraiment intelligent avec leur nouvelle version : Vous pouvez construire un agent avec le meilleur des deux mondes.
L'agent peut passer dynamiquement d'un agent LLM à un mode strict en fonction de ce qui se passe dans la conversation.
Le risque n'est pas uniforme à travers une conversation :
1. Lorsque un client pose une question produit décontractée, Parlant engage le LLM pour générer une réponse fluide et utile.
2. Lorsque un client demande un remboursement, Parlant engage le mode strict pour ne retourner que des modèles de réponse approuvés et contextuellement adaptés.
Vous contrôlez le "mode de composition" de l'agent en fonction des observations en langage naturel sur l'état actuel de la conversation.
C'est une idée vraiment cool. Cela devrait améliorer considérablement l'état actuel de l'art dans les chatbots.
Vous pouvez le découvrir ici :
Le diagramme ci-joint montre comment fonctionne le mode de composition dynamique.
Meilleurs
Classement
Favoris
