Det finns en grundläggande spänning i AI-agentdesignen idag! Och det blir uppenbart först när man börjar bygga för produktion: Ju striktare du upprätthåller en instruktion, desto mer offrar du kontextuella nyanser. Tänk på det så här. När du bygger en kundinriktad agent är vissa instruktioner faktiskt icke-förhandlingsbara. Därför vill du att din agent ska upprätthålla dem strikt, även om det låter robotlikt när det händer. Till exempel kan instruktioner som efterlevnadsrapporter inom finans eller säkerhetsvarningar inom vården inte tolerera några misstag. Men andra instruktioner är milda förslag, som att matcha kundens ton eller hålla svaren kortfattade. Dessa bör påverka samtalet, inte dominera det. Problemet är att de flesta agentarkitekturer inte låter dig uttrycka denna skillnad så lätt. Varje instruktion får vanligtvis samma nivå av tillsyn, så du tvingas antingen vara strikt med allt och låta robotisk, eller vara flexibel och riskera att missa viktiga regler. Och nej, du kan inte bara betona vissa instruktioner i prompten eftersom blotta närvaron av en instruktion redan snedvrider modellens beteende. Betoning lägger bara till mer partiskhet ovanpå den befintliga biasen. Men jag tycker att Parlants senaste kontroll av "kritikalitetsnivåer" är intressant (öppen källkod med 18 000 stjärnor). Det låter dig tala om för din agent hur mycket uppmärksamhet varje instruktion ska ge. ``` agent.create_guideline( villkor="Kunden frågar om mediciner", åtgärd="Direkt till vårdgivare",...