Moltghost Dev Update We hebben gekeken naar Kimi K2 als een lokale modeloptie. Het is een 1T-parameter MoE-model — zelfs gequantiseerd heeft het 500GB+ schijfruimte en 200GB+ VRAM nodig. Onze enkele GPU-pods zijn beperkt tot 45GB, dus het is niet haalbaar met de huidige hardware. Voorlopig draaien we modellen die passen op enkele GPU's zoals Phi4-Mini en Qwen3 8B, met redeneermodellen zoals DeepSeek-R1 die als volgende komen. Ondersteuning voor multi-GPU-clusters staat op de roadmap. Aan de implementatiekant is de bootstrap-tijd gedaald van 75s naar 19s. We hebben OpenClaw en LLM-gewichten in de Docker-image gebakken, de git pull en rebuild-lus verwijderd, en de opstarttijd geparalleliseerd. Getest op 3 GPU-typen: L4 → 18s bootstrap, ~2:47 totaal A5000 → 19s bootstrap, ~6:18 totaal A40 → 18s bootstrap, ~5:08 totaal Klik op live agent in minder dan 3 minuten op L4. De resterende bottleneck is de containerinitialisatie — RunPod haalt onze 1.3GB Docker-image binnen en extraheert deze naar de GPU-knoop voordat onze code zelfs maar draait. Dit duurt 2 tot 5 minuten, afhankelijk van welke knoop je terechtkomt en of deze de image al in de cache heeft. De volgende stap is het registreren van RunPod-sjablonen om images vooraf in de cache te plaatsen op verschillende knopen, met als doel de totale implementatietijd onder de 1 minuut te krijgen. Dit alles draait nog steeds op lokale ontwikkeling. Multi-modelselectie is nog niet live in productie — we moeten de Qwen3 8B-image nog opnieuw bouwen om overeen te komen met het bijgewerkte systeem voordat we het openbaar maken.