Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Avi Chawla
Tutoriels quotidiens et informations sur les DS, le ML, les LLM et les RAG • Co-fondateur @dailydoseofds_ • IIT Varanasi • ex-ingénieur IA @ MastercardAI
Construisez une mémoire semblable à celle des humains pour vos Agents (open-source) !
Chaque système agentique et RAG lutte avec les mises à jour de connaissances en temps réel et la récupération rapide de données.
Zep résout ces problèmes avec son Graphique de Connaissances en constante évolution et conscient du temps.
Comme les humains, Zep organise les souvenirs d'un Agent en épisodes, extrait des entités et leurs relations de ces épisodes, et les stocke dans un graphique de connaissances :
(référez-vous à l'image ci-dessous en lisant)
1) Sous-graphique d'Épisode : Capture les données brutes avec des horodatages, conservant chaque détail pour une recherche historique facile.
2) Sous-graphique d'Entité Sémantique : Extrait des entités (par exemple, "Alice", "Google") et des faits ("Alice travaille chez Google"). Tout est versionné, donc les informations obsolètes sont remplacées.
3) Sous-graphique Communautaire : Regroupe les entités liées en clusters, avec des résumés pour une récupération plus rapide.
Zep offre jusqu'à 18,5 % de précision en plus avec 90 % de latence en moins par rapport à des outils comme MemGPT.
C'est entièrement open-source !
284,61K
Les entreprises construisent des RAG sur des centaines de sources de données, pas une seule !
- Microsoft l'intègre dans les produits M365.
- Google l'intègre dans sa recherche Vertex AI.
- AWS l'intègre dans son Amazon Q Business.
Construisons un RAG alimenté par MCP sur plus de 200 sources (100 % local) :
104,95K
Évaluez les applications LLM conversationnelles comme ChatGPT en 3 étapes (open-source).
Contrairement aux tâches à un seul tour, les conversations se déroulent sur plusieurs messages.
Cela signifie que le comportement du LLM doit être cohérent, conforme et conscient du contexte à travers les tours, et pas seulement précis dans une sortie unique.
Dans DeepEval, vous pouvez le faire en seulement 3 étapes :
1) Définissez votre cas de test multi-tour comme un ConversationalTestCase.
2) Définissez une métrique avec ConversationalGEval en anglais simple.
3) Exécutez l'évaluation.
C'est fait !
Cela fournira une répartition détaillée des conversations qui ont réussi et de celles qui ont échoué, ainsi qu'une distribution des scores.
De plus, vous obtenez également une interface utilisateur complète pour inspecter les tours individuels.
Il y a deux bonnes choses à propos de cela :
- L'ensemble du pipeline est extrêmement simple à configurer et nécessite juste quelques lignes de code.
- DeepEval est 100 % open-source avec ~10k étoiles, et vous pouvez facilement l'auto-héberger pour que vos données restent là où vous le souhaitez.
Trouvez le dépôt dans les commentaires !
23,52K
J'ai construit un système RAG qui interroge plus de 36 millions de vecteurs en moins de 0,03 secondes.
La technique utilisée rend RAG 32 fois plus efficace en mémoire !
Consultez le détail avec le code ci-dessous :

Avi Chawla4 août, 14:33
Une technique simple rend RAG ~32x plus efficace en mémoire !
- Perplexity l'utilise dans son index de recherche
- Azure l'utilise dans son pipeline de recherche
- HubSpot l'utilise dans son assistant IA
Comprenons comment l'utiliser dans les systèmes RAG (avec du code) :
45,02K
- Google Maps utilise le ML graphique pour prédire le temps d'arrivée estimé
- Netflix utilise le ML graphique (GNN) dans les recommandations
- Spotify utilise le ML graphique (HGNNs) dans les recommandations
- Pinterest utilise le ML graphique (PingSage) dans les recommandations
Voici 6 façons incontournables de faire de l'ingénierie des caractéristiques graphiques (avec du code) :
344,52K
Le backend manquant pour vos agents IA !
Motia est un système unifié où les API, les tâches d’arrière-plan, les événements et les agents ne sont que des étapes plug-and-play.
- Python, JS et TypeScript dans le même flux de travail
- Observabilité intégrée
- Déploiement en un clic
100 % open-source.
36,45K
Un serveur MCP qui fait de quiconque un ingénieur de base de données (open-source) !
@MongoDB vient de lancer un serveur MCP qui permet aux outils d'IA comme Claude, Cursor et GitHub Copilot de communiquer directement avec un déploiement MongoDB.
Cela signifie que n'importe qui (technique ou non technique) peut maintenant dire :
- "Montre-moi les utilisateurs les plus actifs"
- "Crée un nouvel utilisateur de base de données avec un accès en lecture seule"
- "Quel est le schéma de ma collection de commandes ?"
...et laisser l'Agent s'occuper du reste.
Pas besoin de taper des requêtes manuelles ou de mémoriser la syntaxe.
Ce serveur MCP fonctionne sur :
- Atlas
- Édition Communautaire
- Entreprise Avancée
L'anglais est tout ce dont vous avez besoin maintenant pour écrire des requêtes de qualité production.
100 % open-source ! Lien dans le prochain tweet.
Merci à l'équipe #MongoDB pour ce partenariat aujourd'hui !

230
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables