¡Arquitectura técnica DeepSeek-v4 expuesta de antemano! Todo el mundo sabe que la arquitectura actual de gran modelo MoE integra la capacidad de razonamiento y el conocimiento de la IA en cada experto, así que ¿es posible que los expertos solo la utilicen para razonar y luego almacenen una gran cantidad de conocimiento externo en un área específica, formando una arquitectura como el Cyborg descrito en Ghost in the Shell, que en realidad está compuesto por cerebro electrónico + memoria externa? ¡DeepSeek lo ha conseguido!