Alors que les LLM continuent d'évoluer, ils ont encore des difficultés avec la mémoire. @mem0ai travaille à changer cela en construisant la couche de mémoire pour les agents IA. Dans cet épisode de Founder Fireside, @dessaigne de YC s'est entretenu avec les co-fondateurs @taranjeetio et @deshrajdry pour discuter de pourquoi les agents ont besoin d'une mémoire persistante, comment Mem0 réduit les coûts et la latence, et pourquoi la mémoire doit rester neutre entre les modèles à mesure que l'IA devient plus axée sur les agents. 00:05 Qu'est-ce que Mem0 ? 00:49 Traction et adoption open source 01:24 Pourquoi la mémoire améliore les agents IA 02:01 Économiser sur les coûts et la latence 02:31 Origines des fondateurs et pivot de YC 05:13 Comment Mem0 fonctionne en coulisses 06:04 Architecture de mémoire hybride 07:10 Règles et attentes de mémoire personnalisées 08:00 Cas d'utilisation dans le monde réel 10:05 Concurrence avec la mémoire native des modèles 11:48 Levée de fonds et prochaines étapes