A arquitetura técnica do DeepSeek-V4 foi revelada antecipadamente! Todos sabem que a atual arquitetura de grandes modelos MoE integra a capacidade de raciocínio e o conhecimento da IA em cada Expert (especialista). Então, seria possível fazer com que os especialistas fossem usados apenas para raciocínio, enquanto um grande volume de conhecimento externo fosse armazenado em áreas específicas, formando uma arquitetura semelhante à descrita em Ghost in the Shell, onde o Cyborg é na verdade composto por um cérebro eletrônico + memória externa? O DeepSeek conseguiu isso!