¡Hay una tensión fundamental en el diseño de Agentes de IA hoy en día! Y se vuelve obvio solo cuando comienzas a construir para producción: Cuanto más estrictamente haces cumplir una instrucción, más sacrificas el matiz contextual. Piénsalo de esta manera. Cuando estás construyendo un Agente orientado al cliente, algunas instrucciones son, de hecho, innegociables. Por lo tanto, quieres que tu Agente las haga cumplir estrictamente, incluso si suena robótico al hacerlo. Por ejemplo, instrucciones como las divulgaciones de cumplimiento en finanzas o las advertencias de seguridad en atención médica no pueden tolerar errores. Pero otras instrucciones son sugerencias suaves, como igualar el tono del cliente o mantener las respuestas concisas. Estas deberían influir en la conversación, no dominarla. El problema es que la mayoría de las arquitecturas de Agentes no te permiten expresar esta distinción tan fácilmente. Cada instrucción típicamente recibe el mismo nivel de cumplimiento, así que o te ves obligado a ser estricto con todo y sonar robótico, o ser flexible con todo y arriesgarte a perder reglas críticas. Y no, no puedes simplemente enfatizar ciertas instrucciones en el propio aviso porque la mera presencia de una instrucción en el aviso ya sesga el comportamiento del modelo. El énfasis solo añade más sesgo sobre el sesgo existente. Pero encuentro interesante el último control de "niveles de criticidad" de Parlant (código abierto con 18k estrellas). Te permite decirle a tu agente cuánta atención prestar a cada instrucción. ``` agent.create_guideline( condition="El cliente pregunta sobre medicamentos", action="Dirigir al proveedor de atención médica",...