Deze kerel is echt geweldig plus. Hij heeft een WebAssembly (WASM) interpreter op een hard-coded manier ingebed in de gewichten van het Transformer-model, en dat is zonder verlies (losslessly). Dit is alsof er een echte computer binnen de LLM draait. Deze computer kan daadwerkelijk berekeningen uitvoeren (run computations), in plaats van zoals de meeste modellen nu, alleen de resultaten van berekeningen te geven via infer. Dit idee lijkt een beetje op de DSP-chips van TI, waarbij de ARM verantwoordelijk is voor logisch denken en de DSP speciaal verantwoordelijk is voor snelle dataverwerking. Ieder zijn sterke punten. Dus, als we het vergelijken, kan het probleem dat LLM niet goed kan inschatten of 3.11 groter is dan 3.8, worden opgelost door een hybride architectuur (hybrid architectures) te bouwen: 1. Neurale netwerken verantwoordelijk voor redeneren en begrijpen (reasoning) 2. Ingebedde interpreter / rekeneenheid verantwoordelijk voor hoge precisie berekeningen Op deze manier kunnen we zowel intelligente redeneringscapaciteit als deterministische rekenprecisie combineren. Dit is zeer voordelig voor numerieke berekeningen, fysieke simulaties, financiële modellering en cryptografische berekeningen.