Eine Sache, die LLM-Agenten nicht gut können: Jeder alte Chatbot kann sich an das Skript halten, während LLM-Agenten dazu neigen, auszubrechen und Kunden in seltsame Gespräche zu führen. Aber natürlich fühlen sich alte Chatbots robotisch an, und die Kunden wollen nicht mit ihnen sprechen. Sie sind zuverlässig, aber die Leute mögen sie nicht, LLM-Agenten sind das Gegenteil. Sie sind flüssig und anpassungsfähig, aber sie können alles sagen. Du bist buchstäblich nur eine Halluzination von einer Katastrophe entfernt. Die Leute hinter Parlant machen etwas wirklich Kluges mit ihrer neuen Version: Du kannst einen Agenten mit dem Besten aus beiden Welten erstellen. Der Agent kann dynamisch zwischen einem LLM-Agenten und dem strengen Modus wechseln, je nachdem, was im Gespräch passiert. Das Risiko ist nicht gleichmäßig über ein Gespräch verteilt: 1. Wenn ein Kunde eine lockere Produktfrage stellt, aktiviert Parlant das LLM, um eine flüssige und hilfreiche Antwort zu generieren. 2. Wenn ein Kunde um eine Rückerstattung bittet, aktiviert Parlant den strengen Modus, um nur genehmigte, kontextbezogene Antwortvorlagen zurückzugeben. Du kontrollierst den "Kompositionsmodus" des Agenten basierend auf Beobachtungen der natürlichen Sprache über den aktuellen Zustand des Gesprächs. Das ist eine wirklich coole Idee. Es sollte den aktuellen Stand der Technik bei Chatbots erheblich verbessern. Du kannst es hier ansehen: Das angehängte Diagramm zeigt, wie der dynamische Kompositionsmodus funktioniert.