Die technische Architektur von DeepSeek-V4 wurde vorzeitig enthüllt! Jeder weiß, dass die aktuelle MoE-Architektur großer Modelle die Inferenzfähigkeiten und das Wissen von KI in jedem Expert (Experten) integriert. Ist es also möglich, Experten nur für die Inferenz zu nutzen und eine große Menge an externem Wissen in bestimmten Bereichen zu speichern, sodass eine Architektur entsteht, die wie der Cyborg aus Ghost in the Shell beschrieben ist, der aus einem elektronischen Gehirn und externem Gedächtnis besteht? DeepSeek hat das geschafft!