El caché de prompts es la optimización más rentable que puedes hacer para tus flujos de trabajo y agentes basados en LLM. En esta publicación, explico consejos para usar la caché de prompts de forma más consistente y cómo funciona por debajo del capó (probablemente el primer recurso de este tipo)