Ten gość jest niesamowity plus. Wbudował interpreter WebAssembly (WASM) w sposób hard-coded w wagi modelu Transformera, i to bezstratnie (losslessly). To jakby w LLM działał prawdziwy komputer. Ten komputer może rzeczywiście wykonywać obliczenia (run computations), a nie tylko, jak w większości modeli, po prostu podawać wyniki obliczeń przez inferencję. Ten pomysł jest trochę podobny do chipów DSP TI, arm odpowiada za myślenie logiczne, a dsp specjalizuje się w szybkich obliczeniach danych. Każdy robi to, co potrafi najlepiej. Porównując, problem, że LLM nie potrafi poprawnie obliczyć, który jest większy: 3.11 czy 3.8, można rozwiązać poprzez zbudowanie rodzaju architektury hybrydowej (hybrid architectures): 1. Sieci neuronowe odpowiadają za wnioskowanie i rozumienie (reasoning) 2. Wbudowany interpreter / silnik obliczeniowy odpowiada za obliczenia o wysokiej precyzji Dzięki temu można jednocześnie uwzględnić zdolności inteligentnego wnioskowania oraz precyzję obliczeń deterministycznych. To przynosi wiele korzyści w obliczeniach numerycznych, symulacjach fizycznych, modelowaniu finansowym i obliczeniach kryptograficznych.