Prompt caching je nejefektivnější optimalizace pro vaše LLM workflow a agenty. V tomto příspěvku se věnuji tipům, jak lépe využívat cache promptů a jak to funguje pod kapotou (pravděpodobně první takový zdroj)