🎉 “La esencia de la programación AI es gestionar el contexto” Esta frase es muy útil, puede explicar el proceso de desarrollo y las tendencias futuras de las aplicaciones de AI. Si decimos que LLM es la CPU, entonces el contexto es la memoria, y la capacidad de la memoria es limitada, la selección de datos se convierte en la clave para la calidad de salida del modelo. ❓ Entonces, ¿qué se almacenará en esta memoria de contexto? ¿Cómo se puede optimizar cada uno? 1️⃣ Palabras clave del sistema La optimización es la misma que la antigua ingeniería de palabras clave, por lo que los elementos clave de las palabras clave excelentes deben ser organizados. Pero la ingeniería de palabras clave ya no es nueva, la ingeniería de contexto es la tendencia, todas las aplicaciones de AI están siguiendo esta línea. 2️⃣ Lista de herramientas Si la información del contexto es insuficiente, se necesita llamar a herramientas para obtenerla. Al principio, las aplicaciones de AI solo tenían unas pocas herramientas clave (leer y escribir archivos, ejecutar comandos), luego se ampliaron muchas herramientas y servicios externos a través de MCP. 3️⃣ Archivos (base de conocimientos/rag) Los documentos relacionados con el problema también son muy importantes. IDEs como Cursor automáticamente guardan los archivos abiertos actualmente, los archivos abiertos recientemente, los archivos relacionados con el problema y el código clave recuperado en el contexto. Además, la ingeniería de contexto gestionará automáticamente los datos de la memoria, como una operación de limpieza de memoria, los datos inútiles se reemplazan, y los datos útiles se colocan al frente para aumentar su peso, etc. ❓ Todo esto parece bastante bueno, ¿por qué cc ha creado un subagente? A medida que avanza la conversación, el contenido en el contexto se vuelve cada vez más abundante, ¡está a punto de colapsar! LLM, para responder preguntas, puede llamar a herramientas múltiples veces (por ejemplo, leer archivos), los resultados devueltos por las herramientas + el contenido de los archivos cargados se añaden constantemente al contexto, el contexto del agente principal puede fácilmente estar a punto de colapsar, la calidad de salida del modelo comienza a disminuir, e incluso puede haber alucinaciones. ...