0/9 Glad for å introdusere Dynamic Large Concept Models (DLCM), en hierarkisk arkitektur som løfter LLM-er utover ineffektiv, uniform token-nivå prosessering. I stedet for å prediksjonere neste underordtoken eller fast antall tokens, genererer DLCM dynamisk de neste konseptene med adaptiv grense og et end2end-treningsparadigme. Med mer rasjonell dynamisk beregningsallokering kan DLCM redusere inferensflopper med 34 % sammenlignet med standard tett transformatorarkitektur. Og effektivitetsfordelen øker når modellstørrelsen og kontekstlengden øker.