Оновлення розробки Moltghost Розглядав Kimi K2 як варіант локальної моделі. Це модель MoE з параметром 1T, навіть квантована, вона потребує 500GB+ диска та 200GB+ VRAM. Наші одиночні GPU-поди розраховують максимум 45 ГБ, тому це неможливо на поточному обладнанні. Поки що ми використовуємо моделі, які підходять для однієї відеокарти, такі як Phi4-Mini та Qwen3 8B, а наступними — розумні моделі, як-от DeepSeek-R1. Підтримка кластерів з багатьма GPU — у планах. Щодо розгортання, Bootstrap зменшився з 75 до 19 секунд. Ми вбудували ваги OpenClaw і LLM у образ Docker, прибрали цикл git pull and rebuild і паралелізували запуск. Протестовано на трьох типах GPU: L4 → 18s бутстреп, ~2:47 загалом A5000 → 19s bootstrap, ~6:18 загалом A40 → 18s bootstrap, ~5:08 загалом Натисніть на живий агент менш ніж за 3 хвилини на L4. Останнє вузьке місце — це init у контейнері: RunPod витягує і витягує наш образ Docker об'ємом 1,3 ГБ на вузол GPU ще до того, як наш код запускається. Це займає від 2 до 5 хвилин залежно від того, на який вузол ви потрапляєте і чи вже кешовано зображення. Наступний крок — реєстрація шаблонів RunPod для попереднього кешування зображень між вузлами, з метою скоротити загальну тривалість розгортання до менш ніж 1 хвилини. Усе це досі працює на локальній розробці. Вибір кількох моделей ще не запущений у виробництво — нам ще потрібно перебудувати образ Qwen3 8B, щоб він відповідав оновленій системі перед публікацією.