Penelitian baru tentang peningkatan refleksi diri dalam agen bahasa. Masalah inti dengan refleksi diri agen adalah bahwa model cenderung menghasilkan pantulan berulang yang menambahkan kebisingan alih-alih sinyal, merusak kinerja penalaran secara keseluruhan. Ini memperkenalkan ParamMem, modul memori parametrik yang mengkodekan pola refleksi silang sampel langsung ke dalam parameter model, kemudian menggunakan pengambilan sampel yang dikontrol suhu untuk menghasilkan refleksi yang beragam pada waktu inferensi. ParamMem menunjukkan peningkatan yang konsisten dibandingkan garis besar SOTA di seluruh pembuatan kode, penalaran matematis, dan QA multi-hop. Ini juga memungkinkan transfer dan peningkatan diri yang lemah ke kuat tanpa memerlukan model eksternal yang lebih kuat, menjadikannya peningkatan praktis untuk pipa agen. Kertas: Pelajari cara membangun agen AI yang efektif di akademi kami: