Deepseek V4 revient pour le Nouvel An chinois, avec une avancée majeure dans la solution aux problèmes de mémoire des Agents grâce au lancement d'Engram. La mémoire a toujours été un problème central et épineux. L'essentiel est de séparer la mémoire et le calcul de l'IA. Le modèle actuel manque d'un mécanisme efficace de recherche de connaissances. Même face à des faits fixes comme "la princesse Diana", il faut mobiliser des réseaux de neurones multicouches pour "redémontrer", ce qui gaspille des ressources de calcul précieuses. En introduisant une nouvelle dimension de "mémoire conditionnelle", nous complétons le MoE (calcul conditionnel) existant. Engram est le module concret de cette mémoire conditionnelle. La Silicon Valley ne fête pas bien le Nouvel An !