🎉 «Суть програмування штучного інтелекту полягає в управлінні контекстом» Це речення настільки корисне, що пояснює процес розробки та майбутні тенденції застосування штучного інтелекту Якщо LLM - це CPU, то контекст - це пам'ять, Обсяг пам'яті обмежений, а вибір даних став запорукою якості виведення моделі ❓ Що буде зберігатися в контексті пам'яті? Як їх оптимізувати? 1️⃣ Системні підказкові слова Оптимізація - це той же набір слів-підказок, що і раніше, тому основні елементи відмінних підказок повинні бути впорядковані. Але оперативна інженерія більше не є новою, контекстна інженерія популярна, і всі програми штучного інтелекту наслідують її приклад 2️⃣ Список інструментів Спочатку додатки штучного інтелекту мали лише кілька основних інструментів (читання та запис файлів, виконання команд), а пізніше розширили безліч зовнішніх інструментів та сервісів за допомогою MCP 3️⃣ Документація (KB/RAG) Документація, пов'язана з проблемами, також важлива, і IDE, такі як Cursor, автоматично зберігають у контексті поточні відкриті файли, нещодавно відкриті файли, пов'язані з проблемами та отримані коди ключів Більш того, контекстний проект буде автоматично управляти даними пам'яті, подібно до операції очищення пам'яті, замінювати непотрібні дані, виставляти корисні дані на передній план, збільшувати вагу і т.д ❓ Все це виглядає непогано, чому СС знову зробила субагента? У міру того, як розмова розвивається, контенту в контексті стає все більше, і він ось-ось лусне! Щоб відповісти на питання, LLM може викликати інструмент кілька разів (наприклад, читати файл), і інструмент повертає результат + завантажений вміст файлу, постійно додаючи його в контекст. ...