Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Avi Chawla
Tutoriais diários e insights sobre DS, ML, LLMs e RAGs • Cofundador @dailydoseofds_ • IIT Varanasi • ex-engenheiro de IA @ MastercardAI
Construa uma memória semelhante à humana para os seus Agentes (código aberto)!
Cada sistema agentic e RAG enfrenta dificuldades com atualizações de conhecimento em tempo real e recuperação rápida de dados.
O Zep resolve esses problemas com seu Grafo de Conhecimento em evolução contínua e consciente do tempo.
Como os humanos, o Zep organiza as memórias de um Agente em episódios, extrai entidades e suas relações desses episódios e as armazena em um grafo de conhecimento:
(refira-se à imagem abaixo enquanto lê)
1) Subgrafo de Episódio: Captura dados brutos com timestamps, retendo cada detalhe para fácil consulta histórica.
2) Subgrafo de Entidade Semântica: Extrai entidades (por exemplo, “Alice,” “Google”) e fatos (“Alice trabalha na Google”). Tudo é versionado, então informações desatualizadas são substituídas.
3) Subgrafo Comunitário: Agrupa entidades relacionadas em clusters, com resumos para recuperação mais rápida.
O Zep oferece até 18,5% mais precisão com 90% menos latência quando comparado a ferramentas como o MemGPT.
É totalmente de código aberto!
284,61K
As empresas constroem RAG sobre centenas de fontes de dados, não apenas uma!
- A Microsoft inclui isso nos produtos M365.
- O Google inclui isso na sua Pesquisa Vertex AI.
- A AWS inclui isso no seu Amazon Q Business.
Vamos construir um RAG alimentado por MCP sobre mais de 200 fontes (100% local):
104,95K
Avalie aplicações de LLM conversacionais como o ChatGPT em 3 etapas (código aberto).
Ao contrário de tarefas de turno único, as conversas se desenrolam ao longo de várias mensagens.
Isso significa que o comportamento do LLM deve ser consistente, conforme e ciente do contexto ao longo dos turnos, não apenas preciso em uma saída única.
No DeepEval, você pode fazer isso em apenas 3 etapas:
1) Defina seu caso de teste de múltiplos turnos como um ConversationalTestCase.
2) Defina uma métrica com ConversationalGEval em inglês simples.
3) Execute a avaliação.
Pronto!
Isso fornecerá uma análise detalhada de quais conversas passaram e quais falharam, juntamente com uma distribuição de pontuação.
Além disso, você também obtém uma interface completa para inspecionar turnos individuais.
Há duas coisas boas sobre isso:
- Todo o pipeline é extremamente simples de configurar e requer apenas algumas linhas de código.
- O DeepEval é 100% código aberto com ~10k estrelas, e você pode facilmente hospedá-lo você mesmo para que seus dados fiquem onde você deseja.
Encontre o repositório nos comentários!
23,52K
Eu construí um sistema RAG que consulta mais de 36M de vetores em <0,03 segundos.
A técnica utilizada torna o RAG 32x mais eficiente em termos de memória!
Confira a análise detalhada com o código abaixo:

Avi Chawla4/08, 14:33
Uma técnica simples torna o RAG ~32x mais eficiente em termos de memória!
- A Perplexity usa isso em seu índice de busca
- A Azure usa isso em seu pipeline de busca
- A HubSpot usa isso em seu assistente de IA
Vamos entender como usá-lo em sistemas RAG (com código):
45,02K
- O Google Maps utiliza ML gráfico para prever o ETA
- A Netflix utiliza ML gráfico (GNN) em recomendações
- O Spotify utiliza ML gráfico (HGNNs) em recomendações
- O Pinterest utiliza ML gráfico (PingSage) em recomendações
Aqui estão 6 maneiras essenciais de engenharia de características gráficas (com código):
344,52K
O backend que falta para os seus AI Agents!
O Motia é um sistema unificado onde APIs, trabalhos em segundo plano, eventos e agentes são apenas etapas plug-and-play.
- Python, JS & TypeScript no mesmo fluxo de trabalho
- Observabilidade integrada
- Implantação com um clique
100% de código aberto.
36,45K
Um servidor MCP que transforma qualquer pessoa em engenheiro de bases de dados (código aberto)!
@MongoDB acaba de lançar um Servidor MCP que permite que ferramentas de IA como Claude, Cursor e GitHub Copilot se comuniquem diretamente com uma implementação do MongoDB.
Isso significa que qualquer pessoa (técnica ou não técnica) pode agora dizer:
- "Mostre-me os usuários mais ativos"
- "Crie um novo usuário de base de dados com acesso somente leitura"
- "Qual é o esquema da minha coleção de pedidos?"
...e deixe o Agente cuidar do resto.
Não há necessidade de digitar consultas manuais ou memorizar sintaxe.
Este servidor MCP funciona em:
- Atlas
- Edição Comunitária
- Enterprise Advanced
Inglês é tudo o que você precisa agora para escrever consultas de nível de produção.
100% código aberto! Link no próximo tweet.
Obrigado à equipe do #MongoDB por fazer parceria hoje!

228
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável