Een ding dat LLM-agenten niet goed kunnen: Elke oude-school chatbot kan zich aan het script houden, terwijl LLM-agenten de neiging hebben om op hol te slaan en klanten in vreemde gesprekken te leiden. Maar natuurlijk voelen oude chatbots robotachtig aan, en klanten willen niet met hen praten. Ze zijn betrouwbaar, maar mensen houden niet van hen, LLM-agenten zijn het tegenovergestelde. Ze zijn vloeiend en adaptief, maar ze kunnen alles zeggen. Je bent letterlijk één hallucinatie verwijderd van een ramp. De jongens achter Parlant doen iets echt slim met hun nieuwe versie: Je kunt een agent bouwen met het beste van beide werelden. De agent kan dynamisch schakelen tussen een LLM-agent en strikte modus, afhankelijk van wat er in het gesprek gebeurt. Risico is niet uniform in een gesprek: 1. Wanneer een klant een casual productvraag stelt, betrekt Parlant de LLM om een vloeiend en nuttig antwoord te genereren. 2. Wanneer een klant om een terugbetaling vraagt, schakelt Parlant de strikte modus in om alleen goedgekeurde, contextueel gedreven antwoordsjablonen terug te geven. Je controleert de "compositie modus" van de agent op basis van observaties in natuurlijke taal over de huidige staat van het gesprek. Dit is een echt cool idee. Het zou de huidige stand van zaken in chatbots aanzienlijk moeten verbeteren. Je kunt het hier bekijken: Het bijgevoegde diagram toont hoe de dynamische compositie modus werkt.