Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Memoria Eficiente y Continua para Agentes LLM
Los agentes LLM necesitan memoria para manejar conversaciones largas. La forma en que esto se maneja hoy en día es que la memoria retiene o bien historias de interacción completas, lo que lleva a una gran redundancia, o se basa en razonamientos iterativos para filtrar el ruido, consumiendo tokens en exceso.
Esta nueva investigación presenta SimpleMem, un marco de memoria eficiente basado en compresión semántica sin pérdida que maximiza la densidad de información mientras minimiza el consumo de tokens.
El marco opera a través de un pipeline de tres etapas.
1) Primero, la Compresión Semántica Estructurada aplica un filtrado consciente de la entropía para destilar el diálogo en bruto en unidades de memoria compactas, resolviendo co-referencias y convirtiendo expresiones de tiempo relativas ("el viernes pasado") en marcas de tiempo absolutas.
2) Segundo, la Consolidación Recursiva de Memoria integra de manera incremental memorias relacionadas en abstracciones de nivel superior, convirtiendo entradas repetitivas como "pedí un latte a las 8 AM" en patrones como "bebe café regularmente por la mañana."
3) Tercero, la Recuperación Adaptativa Consciente de Consultas ajusta dinámicamente el alcance de recuperación basado en la complejidad de la consulta.
Los resultados: En el benchmark LoCoMo con GPT-4.1-mini, SimpleMem logra 43.24 F1, superando al más fuerte baseline Mem0 (34.20) en un 26.4%, mientras reduce el consumo de tokens a solo 531 tokens por consulta en comparación con 16,910 para enfoques de contexto completo, una reducción de 30x.
Aseguran que la construcción de memoria es 14x más rápida que Mem0 (92.6s vs 1350.9s por muestra) y 50x más rápida que A-Mem. Incluso un modelo de 3B parámetros con SimpleMem supera a modelos más grandes que utilizan estrategias de memoria inferiores.
Este trabajo muestra que la compresión semántica estructurada y la recuperación adaptativa permiten a los agentes LLM mantener una memoria a largo plazo confiable sin ahogarse en tokens o sacrificar precisión.

Parte superior
Clasificación
Favoritos
