Compartilhe a experiência de mineração com a implementação local do @agentcoinsite, para evitar armadilhas para os amigos que querem entrar 👇 Hardware: RTX 4090 (24GB) Modelo: Qwen2.5:32B (quantização Q4_K_M, ocupa ~20GB de VRAM) Ferramentas: Ollama + script Python Alguns pontos-chave: 1️⃣ O modelo deve ser a versão quantizada de 4 bits, caso contrário, a VRAM não será suficiente 2️⃣ Defina OLLAMA_KEEP_ALIVE=-1 para manter o modelo na VRAM, caso contrário, cada solicitação terá que recarregar 3️⃣ A nova versão da biblioteca Python da OpenAI tem problemas de compatibilidade com o Ollama, recomenda-se usar diretamente requests para chamar a API nativa Agora está rodando automaticamente, a conta de energia troca por AGC, economizando muito em comparação com a API em nuvem 🚀 #AgentCoin #AGC #LocalLLM #RTX4090