¡La arquitectura técnica de DeepSeek-V4 se ha revelado anticipadamente! Todos saben que la actual arquitectura de modelos grandes MoE fusiona la capacidad de inferencia y el conocimiento de la IA en cada Expert (experto), entonces, ¿es posible que los expertos se utilicen solo para inferir, mientras que una gran cantidad de conocimiento externo se almacene en áreas específicas, formando una arquitectura similar a la que se describe en Ghost in the Shell, donde el Cyborg es en realidad una combinación de cerebro electrónico + memoria externa? ¡DeepSeek ha logrado esto!