Moltghost-kehityspäivitys Tutkin Kimi K2:ta paikallisena mallivaihtoehtona. Se on 1T-parametrin MoE-malli — jopa kvantisoituna, se tarvitsee 500GB+ levyn ja 200GB+ VRAMin. Yksittäiset GPU-podimme ovat maksimissaan 45GB, joten se ei ole mahdollista nykyisellä laitteistolla. Toistaiseksi käytämme malleja, jotka sopivat yksittäisille GPU:ille kuten Phi4-Mini ja Qwen3 8B, ja seuraavaksi tulevat perustelumallit kuten DeepSeek-R1. Moni-GPU-klusterituki on suunnitelmissa. Sijoituspuolella bootstrap laski 75:stä 19:ään. Sisällytimme OpenClaw- ja LLM-painot Docker-kuvaan, poistimme git-pull and rebuild -silmukan ja rinnakkaistimme käynnistyksen. Testattu kolmella GPU-tyypillä: L4 → 18s bootstrap, ~2:47 yhteensä A5000 → 19s bootstrap, ~6:18 yhteensä A40 → 18s bootstrap, ~5:08 yhteensä Klikkaa live-agentille alle 3 minuutissa L4:llä. Jäljelle jäävä pullonkaula on kontti-init — RunPod vetää ja purkaa 1,3GB Docker-kuvamme GPU-solmuun ennen kuin koodimme edes käynnistyy. Tämä kestää 2–5 minuuttia riippuen siitä, mihin solmuun päädyt ja onko kuva jo välimuistissa. Seuraava askel on RunPod-mallipohjien rekisteröinti kuvien esivälimuistiin solmujen välillä, tavoitteena lyhentää kokonaisjulkaisu alle minuuttiin. Kaikki tämä toimii edelleen paikallisessa kehityksessä. Monimallivalinta ei ole vielä tuotannossa — meidän täytyy vielä rakentaa Qwen3 8B:n kuva uudelleen vastaamaan päivitettyä järjestelmää ennen sen julkistamista.