الجميع يغفل عن القصة الحقيقية هنا. هذه ليست "تقنية تحفيز". تسمى الورقة نماذج اللغة العودية، وليس "الإدراك الفوقي التكراري". والمؤلفون ليسوا باحثين عشوائيين يبحثون عن عدد الاستشهادات. قام عمر خطاب بإنشاء DSPy، الذي يحتوي على 31,000+ نجم على GitHub وغير طريقة بناء الناس لأنظمة الذكاء الاصطناعي المركبة. تيم كراسكا كان رائدا في البنى الفهرسية المتعلمة مع جيف دين في جوجل ويدير أنظمة البيانات ومختبر الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا. أليكس تشانغ طالب دكتوراه يعمل عند تقاطع الطرفين. الورقة الفعلية تتناول مشكلة محددة: نماذج اللغة الكبيرة تتدهور عند السياق الطويل. يظهر الرسم البياني أداء GPT-5 ينهار مع تصاعد طول الإدخال من 2^14 إلى 2^21 رمزا، بينما تحافظ نماذج RLM على أداء مستقر. هم يتعاملون مع المدخلات تتجاوز نوافذ السياق بمقدار 100 مرة. النقطة الأساسية من تويتر الخاص بخطاب: "معظم الناس يسيئون فهم نماذج RLM على أنها تتعلق بنماذج اللغة الكبيرة التي تستدعي نفسها. البصيرة الأعمق هي تفاعل نماذج اللغة الكبيرة مع محفزاتها الخاصة كأشياء." هذا يمدد مسار بحث خطاب بالكامل. حول DSPy الأوامر إلى وحدات برمجية. ColBERT جعل الاسترجاع أكثر ذكاء. تحول نماذج RLM السياق نفسه إلى شيء يمكن للنموذج التعامل معه مثل البيانات في الذاكرة. شركة Prime Intellect، إحدى أبرز مختبرات الذكاء الاصطناعي اللامركزية، تبني بالفعل على هذا الهدف. كتبوا أن نماذج RLM ستتيح لهم "تعليم النماذج لإدارة سياقها الخاص من البداية إلى النهاية من خلال التعلم التعزيزي" للوكلاء على مدى أسابيع أو شهور. ما هي المهنة الحقيقية؟ هذا يحل قيدا يواجهه كل مختبر الذكاء الاصطناعي: نوافذ السياق هي سقف صلب. توسيعها من خلال العمارة والتدريب مكلف. تقدم نماذج RLM نهج زمن الاستدلال يعمل مع النماذج الحالية. لكن انتبه للحيلة: هذا يتطلب نماذج يمكنها كتابة وتنفيذ الكود بشكل موثوق. تستخدم اختبارات الأداء GPT-5 في REPL بلغة بايثون. النماذج التي لديها توليد كود أضعف ستواجه صعوبة في تنفيذ التحليل التكراري بشكل نظيف. التقنية تتناسب مع قدرة الشيفرة، وليس فقط على قدرة الاستدلال.