"Modelos de Lenguaje Recursivos" Una dirección potencialmente grande para los LLMs en 2026 por investigadores del MIT En su enfoque, un aviso no se "ejecuta" directamente, en su lugar se almacena como una variable en un REPL de Python externo, y el modelo de lenguaje escribe código para inspeccionar/cortar/descomponer esa larga cadena, observa las salidas de ejecución y luego construye subtareas donde invoca recursivamente un LLM solo en los fragmentos relevantes. Uniendo el resultado cuando el proceso recursivo termina. así puede resolver tareas de más de 10M de tokens con mucho menos "desgaste de contexto" y a menudo a un costo menor que la resumación/RAG, convirtiendo la escalabilidad de contexto largo en un algoritmo de tiempo de inferencia en lugar de solo una ventana de contexto más grande.