Mentre i LLM continuano a evolversi, faticano ancora con la memoria. @mem0ai sta lavorando per cambiare questo costruendo il layer di memoria per gli agenti AI. In questo episodio di Founder Fireside, @dessaigne di YC si è seduto con i co-fondatori @taranjeetio e @deshrajdry per discutere del perché gli agenti abbiano bisogno di una memoria persistente, di come Mem0 riduca costi e latenza, e del perché la memoria debba rimanere neutrale tra i modelli man mano che l'AI diventa più orientata agli agenti. 00:05 Cos'è Mem0? 00:49 Traction & Adozione Open Source 01:24 Perché la Memoria Migliora gli Agenti AI 02:01 Risparmio di Costi e Latenza 02:31 Origini dei Fondatori & Pivot di YC 05:13 Come Funziona Mem0 Sotto il Cofano 06:04 Architettura di Memoria Ibrida 07:10 Regole di Memoria Personalizzate & Aspettative 08:00 Casi d'Uso nel Mondo Reale 10:05 Competere con la Memoria Nativa del Modello 11:48 Raccolta Fondi & Cosa C'è Dopo