Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Chefe de @huggingface de Produto
Victor M republicou
Agora você pode ajustar o @Alibaba_Qwen Qwen-Image com o AI Toolkit usando 24 GB de VRAM, com um adaptador de recuperação de precisão treinado customizado que permite ajustar em 3 bits com perda mínima de precisão. As alterações marcadas nas configurações padrão devem funcionar para GPUs 3090/4090. Mais em 🧵

15,77K
Victor M republicou
Eu realmente gosto muito do @jandotai
É um aplicativo muito amigável para executar LLMs localmente, ótimo para privacidade
Eu experimentei outros como LM Studio e Ollama e eles são legais, mas muito voltados para engenheiros, um pouco difíceis demais para mim
O Jan é simples, fofo e bonito, e uma ótima alternativa para conversar sem enviar seus dados (e segredos ;)) para grandes provedores de IA
Você pode até executar modelos de provedores remotos também via API, se você quiser isso!
Além disso, eles são muito responsivos ao feedback e estão sempre melhorando o aplicativo
Acho que há espaço tanto para aplicativos LLM executados localmente quanto para aplicativos LLM em nuvem, executar localmente faz sentido se você quiser falar sobre coisas muito privadas, terapia, etc. É realmente importante que as pessoas possam ter isso sem temer que seus dados possam vazar no futuro
(Eu não sou afiliado nem pago, apenas realmente gosto!)



218,32K
Victor M republicou
Apresentando Jan-v1: modelo 4B para busca na web, uma alternativa de código aberto ao Perplexity Pro.
Em nossas avaliações, Jan v1 entrega 91% de precisão no SimpleQA, superando ligeiramente o Perplexity Pro enquanto roda totalmente localmente.
Casos de uso:
- Busca na web
- Pesquisa profunda
Construído na nova versão do Qwen's Qwen3-4B-Thinking (até 256k de comprimento de contexto), ajustado para raciocínio e uso de ferramentas no Jan.
Você pode executar o modelo no Jan, llama.cpp ou vLLM. Para habilitar a busca no Jan, vá para Configurações → Recursos Experimentais → Ativar, depois Configurações → Servidores MCP → habilite um MCP relacionado à busca, como o Serper.
Use o modelo:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Créditos à equipe @Alibaba_Qwen pelo Qwen3 4B Thinking e @ggerganov pelo llama.cpp.
633,24K
Qwen-Image + Wan-2.2 = 🔥

Victor M12/08, 06:19
Estou tão entusiasmado que agora podemos gerar vídeos com esta qualidade em menos de 30 segundos. Código aberto para a vitória!
👇Experimente o Wan 2.2 (com Lightning LoRA) no Hugging Face
1,19K
Victor M republicou
Apresentando o GLM-4.5V: uma inovação em raciocínio visual de código aberto
O GLM-4.5V oferece desempenho de ponta entre modelos de código aberto na sua classe de tamanho, dominando em 41 benchmarks.
Construído sobre o modelo base GLM-4.5-Air, o GLM-4.5V herda técnicas comprovadas do GLM-4.1V-Thinking enquanto alcança uma escalabilidade eficaz através de uma poderosa arquitetura MoE de 106B parâmetros.
Hugging Face:
GitHub:
API:
Experimente agora:

264,76K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável