Arsitektur Teknis DeepSeek-V4 Diekspos Sebelumnya! Semua orang tahu bahwa arsitektur MoE model besar saat ini mengintegrasikan kemampuan penalaran dan pengetahuan AI ke dalam setiap ahli, jadi apakah mungkin bagi para ahli untuk hanya menggunakannya untuk penalaran, dan kemudian menyimpan sejumlah besar pengetahuan eksternal di area tertentu, membentuk arsitektur seperti Cyborg yang dijelaskan dalam Ghost in the Shell, yang sebenarnya terdiri dari otak elektronik + memori eksternal? DeepSeek telah melakukan ini!