Istnieje fundamentalne napięcie w projektowaniu agentów AI dzisiaj! I staje się to oczywiste dopiero, gdy zaczynasz budować dla produkcji: Im surowiej egzekwujesz instrukcję, tym bardziej poświęcasz kontekstową niuansowość. Pomyśl o tym w ten sposób. Kiedy budujesz agenta skierowanego do klienta, niektóre instrukcje są rzeczywiście niepodlegające negocjacjom. Dlatego chcesz, aby twój agent egzekwował je surowo, nawet jeśli brzmi to robotycznie. Na przykład instrukcje takie jak ujawnienia zgodności w finansach czy ostrzeżenia o bezpieczeństwie w opiece zdrowotnej nie mogą tolerować żadnych błędów. Ale inne instrukcje to delikatne sugestie, takie jak dopasowanie tonu klienta lub utrzymanie odpowiedzi w zwięzłej formie. Te powinny wpływać na rozmowę, a nie dominować nad nią. Problem polega na tym, że większość architektur agentów nie pozwala na łatwe wyrażenie tej różnicy. Każda instrukcja zazwyczaj otrzymuje ten sam poziom egzekwowania, więc jesteś zmuszony być surowy w kwestii wszystkiego i brzmieć robotycznie, lub być elastyczny w kwestii wszystkiego i ryzykować pominięcie krytycznych zasad. I nie, nie możesz po prostu podkreślić niektórych instrukcji w samym poleceniu, ponieważ sama obecność instrukcji w poleceniu już wpływa na zachowanie modelu. Podkreślenie tylko dodaje więcej stronniczości na istniejącą stronniczość. Ale uważam, że najnowsza kontrola "poziomów krytyczności" Parlant jest interesująca (open-source z 18k gwiazdkami). Pozwala ci powiedzieć swojemu agentowi, ile uwagi poświęcić każdej instrukcji. ``` agent.create_guideline( condition="Klient pyta o leki", action="Skieruj do dostawcy opieki zdrowotnej",...