Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Avi Chawla
Tutoriales diarios e información sobre DS, ML, LLM y RAG • Cofundador @dailydoseofds_ • IIT Varanasi • ex-Ingeniero de IA @ MastercardAI
¡Construye una memoria similar a la humana para tus Agentes (código abierto)!
Cada sistema agentic y RAG lucha con actualizaciones de conocimiento en tiempo real y recuperación rápida de datos.
Zep resuelve estos problemas con su Grafo de Conocimiento en evolución continua y consciente del tiempo.
Al igual que los humanos, Zep organiza los recuerdos de un Agente en episodios, extrae entidades y sus relaciones de estos episodios, y las almacena en un grafo de conocimiento:
(haz referencia a la imagen a continuación mientras lees)
1) Subgrafo de Episodio: Captura datos en bruto con marcas de tiempo, reteniendo cada detalle para una fácil consulta histórica.
2) Subgrafo de Entidad Semántica: Extrae entidades (por ejemplo, “Alice”, “Google”) y hechos (“Alice trabaja en Google”). Todo está versionado, por lo que la información desactualizada se reemplaza.
3) Subgrafo de Comunidad: Agrupa entidades relacionadas en clústeres, con resúmenes para una recuperación más rápida.
Zep ofrece hasta un 18.5% más de precisión con un 90% menos de latencia en comparación con herramientas como MemGPT.
¡Es completamente de código abierto!
284,61K
¡Las empresas construyen RAG sobre cientos de fuentes de datos, no solo una!
- Microsoft lo incluye en los productos de M365.
- Google lo incluye en su búsqueda de Vertex AI.
- AWS lo incluye en su Amazon Q Business.
Construyamos un RAG potenciado por MCP sobre más de 200 fuentes (100% local):
104,95K
Evalúa aplicaciones de LLM conversacionales como ChatGPT en 3 pasos (código abierto).
A diferencia de las tareas de un solo turno, las conversaciones se desarrollan a través de múltiples mensajes.
Esto significa que el comportamiento del LLM debe ser consistente, conforme y consciente del contexto a lo largo de los turnos, no solo preciso en una salida única.
En DeepEval, puedes hacerlo en solo 3 pasos:
1) Define tu caso de prueba de múltiples turnos como un ConversationalTestCase.
2) Define una métrica con ConversationalGEval en inglés sencillo.
3) Ejecuta la evaluación.
¡Listo!
Esto proporcionará un desglose detallado de qué conversaciones pasaron y cuáles fallaron, junto con una distribución de puntajes.
Además, también obtienes una interfaz de usuario completa para inspeccionar turnos individuales.
Hay dos cosas buenas sobre esto:
- Todo el proceso es extremadamente simple de configurar y requiere solo unas pocas líneas de código.
- DeepEval es 100% de código abierto con ~10k estrellas, y puedes autoalojarlo fácilmente para que tus datos permanezcan donde tú quieras.
¡Encuentra el repositorio en los comentarios!
23,51K
He construido un sistema RAG que consulta más de 36 millones de vectores en menos de 0.03 segundos.
¡La técnica utilizada hace que RAG sea 32 veces más eficiente en memoria!
Consulta el desglose detallado con el código a continuación:

Avi Chawla4 ago, 14:33
¡Una técnica simple hace que RAG sea ~32 veces más eficiente en memoria!
- Perplexity la utiliza en su índice de búsqueda
- Azure la utiliza en su pipeline de búsqueda
- HubSpot la utiliza en su asistente de IA
Entendamos cómo usarla en sistemas RAG (con código):
45,02K
- Google Maps utiliza ML de grafos para predecir el ETA
- Netflix utiliza ML de grafos (GNN) en recomendaciones
- Spotify utiliza ML de grafos (HGNNs) en recomendaciones
- Pinterest utiliza ML de grafos (PingSage) en recomendaciones
Aquí hay 6 formas imprescindibles de ingeniería de características de grafos (con código):
344,52K
¡El backend que falta para tus agentes de IA!
Motia es un sistema unificado donde las API, los trabajos en segundo plano, los eventos y los agentes son solo pasos plug-and-play.
- Python, JS y TypeScript en el mismo flujo de trabajo
- Observabilidad incorporada
- Implementación con un solo clic
100% de código abierto.
36,45K
¡Un servidor MCP que convierte a cualquiera en ingeniero de bases de datos (código abierto)!
¡@MongoDB acaba de lanzar un servidor MCP que permite a herramientas de IA como Claude, Cursor y GitHub Copilot comunicarse directamente con una implementación de MongoDB!
Eso significa que cualquiera (técnico o no técnico) ahora puede decir:
- "Muéstrame los usuarios más activos"
- "Crea un nuevo usuario de base de datos con acceso solo de lectura"
- "¿Cuál es el esquema de mi colección de pedidos?"
...y dejar que el Agente se encargue del resto.
No es necesario escribir consultas manuales o memorizar sintaxis.
Este servidor MCP funciona en:
- Atlas
- Edición Comunitaria
- Enterprise Advanced
¡Ahora solo necesitas inglés para escribir consultas de calidad de producción!
¡100% código abierto! Enlace en el siguiente tweet.
¡Gracias al equipo de #MongoDB por asociarse hoy!

226
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado