"Özyinelemeli Dil Modelleri" MIT araştırmacılarından 2026'da LLM'ler için potansiyel olarak büyük bir yön Onların yaklaşımında, bir prompt doğrudan "çalıştırılmaz", bunun yerine harici bir Python REPL'de değişken olarak saklanır ve dil modeli o uzun diziyi incelemek/dilimlemek/ayrıştırmak için kod yazar, yürütme çıktılarını gözlemler ve ardından sadece ilgili parçalarda bir LLM'yi özyinelemeli olarak çağırdığı alt görevler oluşturur. Özyineleme süreci bittiğinde sonucu birleştirmek. böylece 10M+ token görevini çok daha az "bağlam çürümesi" ve genellikle özetleme/RAG'dan daha düşük maliyetle çözebilir; böylece uzun bağlam ölçeklendirmesini sadece daha büyük bir bağlam penceresi yerine çıkarım süresi algoritmasına dönüştürür.