0/9 Rád představím Dynamic Large Concept Models (DLCM), hierarchickou architekturu, která posouvá LLM za hranice neefektivního, jednotného zpracování na úrovni tokenů. Místo predikce tokenu dalšího podslova nebo pevného počtu tokenů DLCM dynamicky generuje další koncepty s adaptivní hranicí pomocí end2end tréninkového paradigmatu. Díky racionálnějšímu dynamickému výpočetnímu rozdělení může DLCM snížit inferenční flopy o 34 % ve srovnání se standardní architekturou hutných transformátorů. A efektivita roste, když roste velikost modelu a délka kontextu.