Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Todo el mundo asume que la memoria de ChatGPT es algún sofisticado sistema RAG con bases de datos vectoriales y búsqueda semántica.
Manthan lo hizo ingeniería inversa. La arquitectura en sí es casi decepcionantemente simple: metadatos de sesión que caducan, datos explícitos almacenados en texto, resúmenes ligeros de chat y una ventana deslizante.
No hay incrustaciones. No hay búsqueda de similitud. No hay extracción a gran escala.
¿La parte interesante? Esto explica por qué parece tan rápido. Los sistemas RAG tradicionales incrustan cada mensaje, ejecutan búsquedas de similitud en cada consulta y extraen los contextos completos. ChatGPT simplemente inyecta resúmenes precalculados directamente. Están cambiando contexto histórico detallado por latencia.
Esta es la misma lección que sigue surgiendo en toda la infraestructura de IA: cuando controlas toda la pila, la simplicidad curada suele superar a la complejidad sofisticada. OpenAI no necesita construir un sistema general de recuperación. Solo necesitan uno que funcione para ChatGPT.
La arquitectura de cuatro capas (metadatos de sesión → hechos almacenados → resúmenes de conversación → ventana deslizante) es básicamente una jerarquía de memoria hecha a mano. Cada capa tiene una persistencia diferente y diferentes propósitos. Los metadatos de la sesión se adaptan en tiempo real. Los hechos persisten para siempre. Los resúmenes proporcionan continuidad. La ventana mantiene la coherencia.
El sistema de memoria de Anthropic utiliza un patrón similar. Los modelos que se sienten más personales no son los que tienen la recuperación más sofisticada. Son ellos quienes almacenan las cosas correctas e inyectan en el momento adecuado.
Populares
Ranking
Favoritas
