L'architecture technique de DeepSeek-V4 est révélée en avance ! Tout le monde sait que l'architecture MoE des grands modèles intègre la capacité de raisonnement et les connaissances de l'IA dans chaque Expert. Alors, est-il possible de faire en sorte que les experts ne soient utilisés que pour le raisonnement, tandis qu'une grande quantité de connaissances externes soit stockée dans des zones spécifiques, formant une architecture semblable à celle décrite dans Ghost in the Shell, où le Cyborg est en fait composé d'un cerveau électronique et d'une mémoire externe ? DeepSeek a réussi à réaliser cela !