0/9 Senang memperkenalkan Dynamic Large Concept Models (DLCM), arsitektur hierarkis yang menggerakkan LLM melampaui pemrosesan tingkat token yang tidak efisien dan seragam. Alih-alih melakukan prediksi token subkata berikutnya atau jumlah token tetap, DLCM secara dinamis menghasilkan konsep berikutnya dengan batas adaptif dengan paradigma pelatihan end2end. Dengan alokasi komputasi dinamis yang lebih rasional, DLCM dapat mengurangi inferensi flop sebesar 34% dibandingkan dengan arsitektur transformator padat standar. Dan manfaat efisiensi tumbuh ketika ukuran model dan panjang konteks bertambah.