0/9 Blij om de Dynamic Large Concept Models (DLCM) voor te stellen, een hiërarchische architectuur die LLM's verder brengt dan inefficiënte, uniforme token-niveau verwerking. In plaats van de voorspelling van de volgende subwoordtoken of een vast aantal tokens, genereert DLCM dynamisch de volgende concepten met een adaptieve grens met een end2end trainingsparadigma. Met een meer rationele dynamische rekenallocatie kan DLCM de inferentie flops met 34% verminderen in vergelijking met de standaard dichte transformerarchitectuur. En het efficiëntievoordeel groeit naarmate de modelgrootte en contextlengte toenemen.