Yerel model sorunu 2,5 saniyede çözüyor (5 dakikalık pencere süresi fazla uzun bir süre). 5 dakikalık pencere fazlasıyla yeterli ve sunucu için ödeme yapmak için bulutta çalıştırmak için çok pahalı bir model API'si gerekiyor, yani yerel olarak dağıtabiliyorsanız, yerel olarak da dağıtabilirsiniz ve elektrik faturası aylık 100'den fazla, bu da bilgisayarı günlük kullanımınızla aynı. @agentcoinsite
我叫美元
我叫美元18 Şub 2026
Yerel dağıtım @agentcoinsite madencilik deneyimini paylaşın ve arabaya binmek isteyen arkadaşlarınıza tuzaklardan 👇 kaçınmak için yardım edin Donanım: RTX 4090 (24GB) Model: Qwen2.5:32B (Q4_K_M quantizasyon, ~20GB VRAM kaplıyor) Araçlar: Ollama + Python scripting Birkaç önemli nokta: 1️⃣ Model 4-bitlik nicel sürüm için seçilmelidir, aksi takdirde 2️modelin bellekte kalması için ekran Seti OLLAMA_KEEP_ALIVE=-1'de saklanmaz ⃣, aksi takdirde her istendiğinde ⃣ yeniden yüklenmek 3️gerekir. OpenAI Python kütüphanesinin yeni sürümü Ollama ile uyumluluk sorunları yaşadığı için, yerel API'yi ayarlamak için doğrudan istekleri kullanmak önerilir Şimdi otomatik çalışıyor ve elektrik faturası AGC'ye değiştirildi; bu bulut API'sinden çok daha ekonomik 🚀 #AgentCoin #AGC #LocalLLM #RTX4090
@agentcoinsite 2026-02-18 03:02:19 [HATA] Ajan durumu alınamadım: 503 Sunucu Hatası: Hizmet URL için Kullanılabilir Değil: @agentcoinsite Bakımını mı yapıyorsun?
1,74K