Embora os LLMs continuem evoluindo, eles ainda têm dificuldades com a memória. @mem0ai está trabalhando para mudar isso construindo a camada de memória para agentes de IA. Neste episódio do Founder Fireside, o @dessaigne da YC sentou-se com os cofundadores @taranjeetio e @deshrajdry para discutir por que os agentes precisam de memória persistente, como o Mem0 reduz custos e latência, e por que a memória deve permanecer neutra entre os modelos à medida que a IA se torna mais orientada pelos agentes. 00:05 O que é Mem0? 00:49 Tração e Adoção de Código Aberto 01:24 Por que a Memória Melhora Agentes de IA 02:01 Economizando Custos e Latência 02:31 Origens do Fundador & Pivot YC 05:13 Como o Mem0 Funciona Sob o Capô 06:04 Arquitetura de Memória Híbrida 07:10 Regras e Expectativas de Memória Personalizadas 08:00 Casos de Uso do Mundo Real 10:05 Competindo com a Memória Nativa do Modelo 11:48 Arrecadação de Fundos & O Que Vem a Seguir