🎉 "Inti dari pemrograman AI adalah mengelola konteks" Kalimat ini sangat berguna sehingga menjelaskan proses pengembangan dan tren masa depan aplikasi AI Jika LLM adalah CPU, maka konteksnya adalah memori, Kapasitas memori terbatas, dan pilihan data telah menjadi kunci kualitas output model ❓ Apa yang akan disimpan dalam konteks memori? Bagaimana cara mengoptimalkannya? 1️⃣ Kata-kata prompt sistem Pengoptimalan adalah kumpulan kata prompt yang sama seperti sebelumnya, jadi elemen inti dari prompt yang sangat baik harus diatur. Tetapi rekayasa cepat bukan lagi hal baru, rekayasa konteks populer, dan semua aplikasi AI mengikutinya 2️⃣ Daftar alat Pada awalnya, aplikasi AI hanya memiliki beberapa alat inti (membaca dan menulis file, menjalankan perintah), dan kemudian memperluas banyak alat dan layanan eksternal melalui MCP 3️⃣ Dokumentasi (KB/RAG) Dokumentasi terkait masalah juga penting, dan IDE seperti Kursor akan secara otomatis menyimpan file yang saat ini terbuka, file yang baru dibuka, file terkait masalah, dan kode kunci yang diambil ke dalam konteks Selain itu, proyek konteks akan secara otomatis mengelola data memori, seperti operasi pembersihan memori, mengganti data yang tidak berguna, meletakkan data yang berguna di depan, menambah bobot, dll ❓ Semua ini terlihat bagus, mengapa CC melakukan subagen lagi? Seiring berjalannya percakapan, semakin banyak konten dalam konteksnya, dan itu akan meledak! Untuk menjawab pertanyaan, LLM dapat memanggil alat beberapa kali (seperti membaca file), dan alat mengembalikan hasil + konten file yang dimuat, terus-menerus menambahkannya ke konteks. ...