Ich habe ein kleines Dateisystem zu meinem wasm-Interpreter hinzugefügt, das auf einem neuronalen Netzwerk läuft. Dateien existieren als Tensoren auf der GPU, verbrauchen jedoch keinen "Kontext", bis sie von wasm-Anweisungen gelesen oder geschrieben werden. Sie können Dateien beim Start des Netzwerks aus dem echten Dateisystem laden. Ändern Sie sie im GPU-Speicher und kopieren Sie sie danach zurück. Wenn Sie genau hinsehen, ist es ein Mini-Computer, der auf der GPU läuft, eine Art ultimativer Sandbox. Es ist alles mit linearer Algebra implementiert, sowohl differenzierbar als auch deterministisch.