🎉 "Суть программирования ИИ заключается в управлении контекстом" Эта фраза очень полезна, она может объяснить процесс развития и будущие тенденции применения ИИ. Если LLM — это ЦП, то контекст — это память, а объем памяти ограничен, выбор данных становится ключевым для качества вывода модели. ❓ Что будет храниться в этой памяти контекста? Как ее оптимизировать? 1️⃣ Системные подсказки Оптимизация — это старая схема подсказок, поэтому ключевые элементы отличных подсказок должны быть предусмотрены. Но подсказки уже не новинка, контекстная инженерия — это то, что сейчас в моде, все приложения ИИ следуют этому. 2️⃣ Список инструментов Если информации в контексте недостаточно, нужно использовать инструменты для получения данных. Сначала у приложений ИИ было лишь несколько основных инструментов (чтение и запись файлов, выполнение команд), затем через MCP было добавлено много внешних инструментов и сервисов. 3️⃣ Файлы (база знаний/rag) Документы, связанные с вопросом, также очень важны. IDE, такие как Cursor, автоматически сохраняют текущие открытые файлы, недавно открытые файлы, файлы, связанные с вопросом, и найденный ключевой код в контексте. Кроме того, контекстная инженерия будет автоматически управлять данными памяти, как операция очистки памяти: бесполезные данные будут заменены, полезные данные будут выдвинуты вперед, чтобы повысить их вес и т.д. ❓ Все это выглядит довольно хорошо, почему же cc снова создал subagent? С увеличением объема диалога содержание в контексте становится все больше, и он почти переполнен! Чтобы ответить на вопросы, LLM может многократно вызывать инструменты (например, читать файлы), результаты инструментов + загруженное содержимое файлов постоянно добавляются в контекст, и контекст главного агента может легко переполниться, качество вывода модели начинает снижаться, даже возникают галлюцинации. ...