Não me importa que computador você tenha, você deve estar a correr modelos locais Isso vai poupar-lhe dinheiro no OpenClaw e manter os seus dados privados Mesmo que esteja no Mac Mini mais barato, você pode fazer isso Aqui está um guia completo: 1. Baixe o LMStudio 2. Vá ao seu OpenClaw e diga que tipo de hardware você tem (computador, memória e armazenamento) 3. Pergunte qual é o maior modelo local que você pode executar lá 4. Pergunte 'com base no que você sabe sobre mim, quais fluxos de trabalho este modelo aberto poderia substituir?' 5. Peça ao OpenClaw para guiá-lo no download do modelo no LM Studio e na configuração da API 6. Peça ao OpenClaw para começar a usar a nova API Boom, você está pronto para começar. Você acabou de poupar dinheiro usando modelos locais, tem um modelo de IA que é COMPLETAMENTE privado e seguro no seu próprio dispositivo, fez algo avançado que 99% das pessoas nunca fizeram e entrou no futuro. Existem alguns modelos locais incríveis disponíveis agora também. Nemotron 3 e Qwen 3.5 são fantásticos e podem ser executados em dispositivos menores Possua a sua inteligência.