Arhitectura tehnică DeepSeek-v4 expusă în avans! Toată lumea știe că arhitectura actuală a modelului mare MoE integrează capacitatea de raționament și cunoștințele AI în fiecare expert, deci este posibil ca experții să o folosească doar pentru raționament, apoi să stocheze o cantitate mare de cunoștințe externe într-o zonă specifică, formând o arhitectură ca Cyborg-ul descris în Ghost in the Shell, care este de fapt compusă din creier electronic + memorie externă? DeepSeek a reușit asta!