Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Moltghost Geliştirici Güncellemesi
Kimi K2'yi yerel model seçeneği olarak inceledim. Bu 1T-parametreli bir MoE modeli — kuantize edilse bile, 500GB+ disk ve 200GB+ VRAM gerektiriyor. Tek GPU podlarımız maksimum 45GB kapasitede, bu yüzden mevcut donanımda mümkün değil.
Şimdilik, Phi4-Mini ve Qwen3 8B gibi tek GPU'lara uyan modeller kullanıyoruz, ardından DeepSeek-R1 gibi mantıklı modeller geliyor. Çok GPU kümesi desteği yol haritasında.
Konuşlandırma tarafında, bootstrap 75'ten 19'a indi. OpenClaw ve LLM ağırlıklarını Docker imajına ekledik, git pull and rebuild döngüsünü kaldırdık ve başlatmayı paralel hale getirdik.
3 GPU tipinde test edildi:
L4 → 18s bootstrap, toplamda ~2:47
A5000 → 19s bootstrap, toplamda ~6:18
A40 → 18s bootstrap, toplamda ~5:08
L4'te 3 dakikadan kısa sürede canlı ajana tıklayın.
Kalan dar boğaz ise container init — RunPod, kodumuz çalışmadan önce 1.3GB Docker imgemimizi GPU düğümüne çekip çıkarıyor. Bu, hangi düğüme indiğinize ve görüntünün zaten önbelleğe alınıp saklanmadığına bağlı olarak 2 ila 5 dakika sürer.
Sonraki adım, RunPod şablonlarını kaydederek düğümler arasında görüntüleri önbellemek ve toplam dağıtımı 1 dakikanın altına indirmeyi hedeflemektir.
Tüm bunlar hâlâ yerel geliştirme sisteminde çalışıyor. Çok model seçimi henüz üretimde değil — halka sunulmadan önce Qwen3 8B görüntüsünü güncellenmiş sisteme uyacak şekilde yeniden inşa etmemiz gerekiyor.
En İyiler
Sıralama
Takip Listesi
