Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Leder for produkt@huggingface
Victor M lagt ut på nytt
Du kan nå finjustere Qwen-Image @Alibaba_Qwen med AI Toolkit med 24 GB VRAM ved hjelp av en spesialopplært nøyaktighetsgjenopprettingsadapter som lar deg finjustere med 3 bit med minimalt presisjonstap. De merkede endringene i standardinnstillingene skal fungere for 3090/4090 GPUer. Mer i 🧵

15,77K
Victor M lagt ut på nytt
Jeg liker virkelig @jandotai
Det er en veldig vennlig app for lokalt å kjøre LLM-er, flott for personvernet
Jeg har prøvd andre som LM Studio og Ollama, og de er fine, men veldig ingeniørbygget, litt for vanskelige for meg
Jan er enkel og søt og pen og et flott alternativ å snakke med uten å sende dataene dine (og hemmeligheter ;)) til store AI-leverandører
Du kan til og med kjøre eksterne leverandørmodeller også via API, hvis du ønsker det!
De er også veldig lydhøre for tilbakemeldinger og forbedrer alltid appen
Jeg tror det er plass til både lokalt drevne LLM-apper og sky-LLM-apper, lokalt drevet gir mening hvis du vil snakke om veldig private ting, terapi osv. Det er veldig viktig at folk kan ha det uten å frykte at dataene dine kan lekke i fremtiden
(Jeg er ikke tilknyttet eller betalt, bare liker det virkelig!)



218,32K
Victor M lagt ut på nytt
Vi introduserer Jan-v1: 4B-modellen for nettsøk, et åpen kildekode-alternativ til Perplexity Pro.
I våre evalueringer leverer Jan v1 91 % SimpleQA-nøyaktighet, noe bedre enn Perplexity Pro mens den kjører helt lokalt.
Brukstilfeller:
- Nettsøk
- Dyp forskning
Bygget på den nye versjonen av Qwens Qwen3-4B-Thinking (opptil 256k kontekstlengde), finjustert for resonnement og verktøybruk i januar.
Du kan kjøre modellen i Jan, llama.cpp eller vLLM. For å aktivere søk i januar, gå til Innstillinger → eksperimentelle funksjoner → På, deretter Innstillinger → MCP-servere → aktivere en søkerelatert MCP som Serper.
Bruk modellen:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Takk til @Alibaba_Qwen-teamet for Qwen3 4B Thinking & @ggerganov for llama.cpp.
633,24K
Qwen-Image + Wan-2.2 = 🔥

Victor M12. aug., 06:19
Jeg er så hypet at vi nå kan generere videoer av denne kvaliteten på under 30 sekunder. Åpen kildekode for seieren!
👇Prøv Wan 2.2 (med Lightning LoRA) på Hugging Face
1,18K
Victor M lagt ut på nytt
Vi presenterer GLM-4.5V: et gjennombrudd innen visuell resonnement med åpen kildekode
GLM-4.5V leverer toppmoderne ytelse blant åpen kildekode-modeller i sin størrelsesklasse, og dominerer på tvers av 41 benchmarks.
GLM-4.5V er bygget på GLM-4.5-Air-basemodellen, og arver velprøvde teknikker fra GLM-4.1V-Thinking samtidig som den oppnår effektiv skalering gjennom en kraftig 106B-parameter MoE-arkitektur.
Klemmende ansikt:
GitHub:
Application Programming Interface:
Prøv det nå:

264,76K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til