0/9 Glad att kunna introducera Dynamic Large Concept Models (DLCM), en hierarkisk arkitektur som för LLM:er bortom ineffektiv, enhetlig token-nivå-bearbetning. Istället för att förutsäga nästa underordstoken eller ett fast antal tokens genererar DLCM dynamiskt nästa koncept med adaptiv gräns och ett end-toend-träningsparadigm. Med mer rationell dynamisk beräkningsallokering kan DLCM minska inferensflops med 34 % jämfört med standard dense transformatorarkitektur. Och effektivitetsfördelen ökar när modellstorleken och kontextlängden ökar.