Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Memória Eficiente ao Longo da Vida para Agentes LLM
Agentes de LLM precisam de memória para lidar com conversas longas. A forma como isso é tratado hoje é que a memória ou retém históricos completos de interação, levando a redundâncias massivas, ou depende de raciocínio iterativo para filtrar o ruído, consumindo tokens em excesso.
Essa nova pesquisa introduz o SimpleMem, uma estrutura eficiente de memória baseada em compressão semântica sem perdas que maximiza a densidade de informações enquanto minimiza o consumo de tokens.
A estrutura opera por meio de um pipeline de três estágios.
1) Primeiro, a Compressão Estruturada Semântica aplica filtragem consciente da entropia para destilar diálogos brutos em unidades de memória compactas, resolvendo coreferências e convertendo expressões de tempo relativo ("na última sexta-feira") em carimbos de tempo absolutos.
2) Segundo, a Consolidação Recursiva da Memória integra gradualmente memórias relacionadas a abstrações de nível superior, transformando entradas repetitivas como "pediu um latte às 8h" em padrões como "toma café regularmente pela manhã."
3) Terceiro, a Recuperação Adaptativa Consciente da Consulta ajusta dinamicamente o escopo da recuperação com base na complexidade da consulta.
Os resultados: No benchmark do LoCoMo com GPT-4.1-mini, o SimpleMem alcança 43,24 F1, superando o Mem0 de referência mais forte (34,20) em 26,4%, enquanto reduz o consumo de tokens para apenas 531 tokens por consulta em comparação com 16.910 para abordagens de contexto completo, uma redução de 30 vezes.
Eles afirmam que a construção da memória é 14x mais rápida que a do Mem0 (92,6s contra 1350,9s por amostra) e 50x mais rápida que a A-Mem. Mesmo um modelo de parâmetros 3B com SimpleMem supera modelos maiores usando estratégias de memória inferiores.
Este trabalho mostra que compressão semântica estruturada e recuperação adaptativa permitem que agentes LLM mantenham memória confiável de longo prazo sem se afogar em tokens ou sacrificar a precisão.

Melhores
Classificação
Favoritos
