Инженерия контекста — это не просто подбрасывание большего объема данных вашему LLM — это предоставление правильного контекста в нужное время. В этом выступлении для @OReillyMedia наш инженер по связям с разработчиками @tuanacelik рассказывает, как блоки памяти помогают вам создавать агентов, которые поддерживают структурированный контекст для сложных задач. Она демонстрирует блоки памяти артефактов, используя бота для отслеживания заказов в ресторане — показывая, как свести целые разговоры к лишь необходимой структурированной информации (тип пиццы, топпинги, адрес), а не обрабатывать всю историю чата. Основные концепции: · Разные типы блоков памяти (статические, извлечение фактов, векторные, артефакты) · Управление соотношением контекста — балансировка истории чата, системных подсказок и памяти · Использование рабочих процессов агентов для поэтапного построения и оптимизации контекста Пример показывает, как блоки памяти артефактов могут преобразовать блуждающий разговор в чистый, структурированный заказ — именно то, что вам нужно для производственных агентов, обрабатывающих реальные задачи. Смотрите полное выступление: