Semua orang kehilangan kisah sebenarnya di sini. Ini bukan "teknik dorongan". Makalah ini disebut Model Bahasa Rekursif, bukan "Meta-Kognisi Rekursif." Dan penulis bukanlah peneliti acak yang menggiling jumlah kutipan. Omar Khattab menciptakan DSPy, yang memiliki 31.000+ bintang GitHub dan mengubah cara orang membangun sistem AI majemuk. Tim Kraska memelopori struktur indeks yang dipelajari dengan Jeff Dean di Google dan menjalankan Sistem Data dan Lab AI MIT. Alex Zhang adalah mahasiswa PhD yang bekerja di persimpangan keduanya. Makalah yang sebenarnya membahas masalah tertentu: LLM menurun pada konteks yang panjang. Grafik menunjukkan performa GPT-5 runtuh saat panjang input berskala dari 2^14 menjadi 2^21 token, sementara RLM mempertahankan performa yang stabil. Mereka menangani input 100x di luar jendela konteks. Wawasan utama dari Twitter Khattab sendiri: "Kebanyakan orang salah memahami RLM tentang LLM yang memanggil diri mereka sendiri. Wawasan yang lebih dalam adalah LLM berinteraksi dengan petunjuk mereka sendiri sebagai objek." Ini memperluas seluruh busur penelitian Khattab. DSPy mengubah prompt menjadi modul terprogram. ColBERT membuat pengambilan lebih cerdas. RLM mengubah konteks itu sendiri menjadi sesuatu yang dapat dimanipulasi oleh model seperti data dalam memori. Prime Intellect, salah satu laboratorium AI terdesentralisasi terkemuka, sudah membangun hal ini. Mereka menulis bahwa RLM akan memungkinkan mereka "mengajarkan model untuk mengelola konteks mereka sendiri dari ujung ke ujung melalui pembelajaran penguatan" untuk agen yang berjalan selama berminggu-minggu atau berbulan-bulan. Perdagangan nyata? Ini memecahkan kendala yang dihadapi setiap lab AI: jendela konteks adalah langit-langit yang keras. Memperluasnya melalui arsitektur dan pelatihan itu mahal. RLM menawarkan pendekatan waktu inferensi yang bekerja dengan model yang ada. Tetapi perhatikan tangkapannya: ini membutuhkan model yang dapat menulis dan mengeksekusi kode dengan andal. Tolok ukur menggunakan GPT-5 dalam Python REPL. Model dengan pembuatan kode yang lebih lemah akan kesulitan untuk mengimplementasikan dekomposisi rekursif dengan bersih. Teknik ini diskalakan dengan kemampuan kode, bukan hanya kemampuan penalaran.