Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Hoofd Product @huggingface
Victor M heeft opnieuw gepost
Je kunt nu @Alibaba_Qwen Qwen-Image fijn afstemmen met de AI Toolkit met 24 GB VRAM, met een op maat getrainde nauwkeurigheidshersteladapter die je in staat stelt om op 3 bit te fine-tunen met minimale precisieverlies. De gemarkeerde wijzigingen in de standaardinstellingen zouden moeten werken voor 3090/4090 GPU's. Meer in 🧵

15,77K
Victor M heeft opnieuw gepost
Ik vind @jandotai echt heel leuk
Het is een zeer vriendelijke app om lokaal LLM's te draaien, geweldig voor privacy
Ik heb andere geprobeerd zoals LM Studio en Ollama en ze zijn leuk, maar heel technisch gebouwd, een beetje te moeilijk voor mij
Jan is simpel en schattig en mooi en een geweldige alternatieve manier om te praten zonder je gegevens (en geheimen ;)) naar grote AI-providers te sturen
Je kunt zelfs modellen van externe providers draaien via API, als je dat wilt!
Ook zijn ze zeer responsief op feedback en altijd bezig met het verbeteren van de app
Ik denk dat er ruimte is voor zowel lokaal draaiende LLM-apps als cloud LLM-apps, lokaal draaien is logisch als je over zeer privézaken wilt praten, therapie enz. Het is echt belangrijk dat mensen dat kunnen doen zonder te vrezen dat hun gegevens in de toekomst kunnen uitlekken
(Ik ben niet verbonden of betaald, ik vind het gewoon echt leuk!)



218,32K
Victor M heeft opnieuw gepost
Introductie van Jan-v1: 4B model voor webzoekopdrachten, een open-source alternatief voor Perplexity Pro.
In onze evaluaties levert Jan v1 91% SimpleQA-nauwkeurigheid, wat iets beter is dan Perplexity Pro, terwijl het volledig lokaal draait.
Toepassingsgebieden:
- Webzoekopdracht
- Diepgaand onderzoek
Gebouwd op de nieuwe versie van Qwen's Qwen3-4B-Thinking (tot 256k contextlengte), fijn afgestemd voor redeneren en het gebruik van tools in Jan.
Je kunt het model draaien in Jan, llama.cpp of vLLM. Om zoeken in Jan in te schakelen, ga naar Instellingen → Experimentele functies → Aan, en vervolgens Instellingen → MCP-servers → schakel een zoekgerelateerde MCP in, zoals Serper.
Gebruik het model:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Credits aan het @Alibaba_Qwen-team voor Qwen3 4B Thinking & @ggerganov voor llama.cpp.
633,24K
Qwen-Image + Wan-2.2 = 🔥

Victor M12 aug, 06:19
Ik ben zo enthousiast dat we nu video's van deze kwaliteit in minder dan 30 seconden kunnen genereren. Open source voor de winst!
👇Probeer Wan 2.2 (met Lightning LoRA) op Hugging Face
1,19K
Victor M heeft opnieuw gepost
Introductie van GLM-4.5V: een doorbraak in open-source visueel redeneren
GLM-4.5V levert state-of-the-art prestaties onder open-source modellen in zijn grootteklasse en domineert op 41 benchmarks.
Gebouwd op het GLM-4.5-Air basis model, erft GLM-4.5V bewezen technieken van GLM-4.1V-Thinking terwijl het effectieve schaalvergroting bereikt door een krachtige 106B-parameter MoE-architectuur.
Hugging Face:
GitHub:
API:
Probeer het nu:

264,76K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste