Questo tizio è davvero incredibile. Ha incorporato un interprete WebAssembly (WASM) in modo hard-coded nei pesi del modello Transformer, e senza perdite (losslessly). Questo equivale a far funzionare un vero computer all'interno di un LLM. Questo computer può eseguire calcoli reali (run computations), invece di fornire solo risultati di calcolo come fanno la maggior parte dei modelli attuali, che si limitano a inferire. Questa idea è un po' simile ai chip DSP di TI, con l'arm che si occupa del pensiero logico e il DSP che si occupa dei calcoli ad alta velocità. Ognuno con i propri punti di forza. Quindi, per fare un paragone, il problema che i LLM non riescono a calcolare correttamente quale sia maggiore tra 3.11 e 3.8 può essere risolto costruendo un'architettura ibrida (hybrid architectures): 1. Le reti neurali si occupano di ragionamento e comprensione (reasoning) 2. L'interprete embedded / motore di calcolo si occupa di calcoli ad alta precisione In questo modo si possono bilanciare le capacità di ragionamento intelligente e la precisione dei calcoli deterministici. Questo è molto vantaggioso per i calcoli numerici, la simulazione fisica, la modellazione finanziaria e le operazioni crittografiche.