le caching des prompts est l'optimisation la plus rentable que vous puissiez faire pour vos flux de travail et agents basés sur LLM. Dans cet article, je couvre des conseils pour accéder au cache de prompts de manière plus cohérente et comment cela fonctionne en coulisses (probablement la première ressource de ce type)