Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gestión autónoma de memoria en agentes LLM
Los agentes LLM tienen dificultades con tareas a largo plazo debido a la saturación de contexto.
A medida que crece el historial de interacciones, los costes computacionales se disparan, la latencia aumenta y el razonamiento se degrada por la distracción causada por errores pasados irrelevantes.
El enfoque estándar es solo añadir: cada pensamiento, llamada a una herramienta y respuesta se acumula de forma permanente. Esto funciona para tareas cortas, pero garantiza el fracaso en la exploración compleja.
Esta investigación introduce Focus, una arquitectura centrada en agentes inspirada en el moho mucilaginoso (Physarum polycephalum). La idea biológica: los organismos no conservan registros perfectos de cada movimiento a través de un laberinto. Conservan el mapa erudito.
Focus da a los agentes dos nuevas primitivas: start_focus y complete_focus. El agente decide de forma autónoma cuándo consolidar los aprendizajes en un bloque persistente de Conocimiento y puede activamente la historia de interacción en bruto. No hay temporizadores externos ni heurísticas que obliguen a la compresión.
Declara lo que estás investigando, explora usando herramientas estándar y luego consolida resumiendo lo que se intentó, lo aprendido y el resultado. El sistema añade esto a un bloque de Conocimiento persistente y elimina todo lo que queda entre el punto de control y el paso actual.
Esto convierte el contexto monótonamente creciente en un patrón de dientes de sierra: crecimiento durante la exploración, colapso durante la consolidación.
La evaluación en SWE-bench Lite con Claude Haiku 4.5 muestra que Focus logra una reducción del 22,7% en tokens (14,9 millones a 11,5 millones de tokens) manteniendo la misma precisión (60% tanto para la línea base como para Focus). En casos individuales se registraron ahorros de hasta el 57%.
Un impulso agresivo importa. El incentivo pasivo solo generó un ahorro del 6%. Instrucciones explícitas para comprimir cada 10-15 llamadas a herramientas, con recordatorios del sistema, aumentaron las compresiones de 2.0 a 6.0 por tarea.
Los modelos capaces pueden autorregular su contexto de forma autónoma cuando se les proporcionan las herramientas y prompts adecuados, abriendo vías para sistemas agentivos conscientes de costes sin sacrificar el rendimiento de la tarea.
Papel:
Aprende a crear agentes de IA efectivos en nuestra academia:

Populares
Ranking
Favoritas
