Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Șef de produs @huggingface
Victor M a repostat
Tocmai am lansat 3 milioane de mostre de seturi de date de antrenament pentru modele de limbaj vizual de înaltă calitate pentru cazuri de utilizare precum:
📄 recunoașterea optică a caracterelor (OCR)
📊 răspuns vizual la întrebări (VQA)
📝 Subtitrare
🤗 Află mai multe:
📥 Descărca:
80,28K
Victor M a repostat
Acum puteți regla fin Qwen-Image cu @Alibaba_Qwen AI Toolkit cu 24 GB de VRAM folosind un adaptor personalizat de recuperare a preciziei antrenat care vă permite să reglați fin la 3 biți cu pierderi minime de precizie. Modificările marcate ale setărilor implicite ar trebui să funcționeze pentru GPU-urile 3090/4090. Mai multe în 🧵

15,77K
Victor M a repostat
Îmi place foarte mult @jandotai
Este o aplicație foarte prietenoasă pentru a rula LLM-uri local, excelentă pentru confidențialitate
Am încercat altele precum LM Studio și Ollama și sunt drăguțe, dar foarte construite de ingineri, puțin prea dificile pentru mine
Jan este simplu, drăguț și drăguț și o alternativă excelentă cu care să vorbești fără a-ți trimite datele (și secretele ;)) marilor furnizori de inteligență artificială
Puteți chiar să rulați modele de furnizori la distanță prin API, dacă doriți asta!
De asemenea, sunt foarte receptivi la feedback și îmbunătățesc mereu aplicația
Cred că există spațiu atât pentru aplicațiile LLM rulate local, cât și pentru aplicațiile LLM în cloud, rularea locală are sens dacă vrei să vorbești despre lucruri foarte private, terapie etc. Este foarte important ca oamenii să poată avea asta fără să se teamă că datele tale ar putea avea scurgeri în viitor
(Nu sunt afiliat sau plătit, îmi place foarte mult!)



218,33K
Victor M a repostat
Vă prezentăm modelul Jan-v1: 4B pentru căutarea pe web, o alternativă open-source la Perplexity Pro.
În evaluările noastre, Jan v1 oferă o precizie SimpleQA de 91%, depășind ușor Perplexity Pro în timp ce rulează complet local.
Cazuri de utilizare:
- Căutare pe web
- Cercetare aprofundată
Construit pe noua versiune a Qwen3-4B-Thinking de la Qwen (până la 256k lungime de context), ajustată fin pentru raționament și utilizarea instrumentelor în ianuarie.
Puteți rula modelul în ianuarie, llama.cpp sau vLLM. Pentru a activa căutarea în ianuarie, accesați Setări → Funcții experimentale → Activat, apoi Setări → Servere MCP → activați un MCP legat de căutare, cum ar fi Serper.
Utilizați modelul:
- Ianuarie-v1-4B:
- Ianuarie-v1-4B-GGUF:
Mulțumesc echipei @Alibaba_Qwen pentru Qwen3 4B Thinking & @ggerganov pentru llama.cpp.
633,24K
Qwen-Imagine + Wan-2.2 = 🔥

Victor M12 aug., 06:19
Sunt atât de entuziasmat că acum putem genera videoclipuri de această calitate în mai puțin de 30 de secunde. Open source pentru câștig!
👇Încercați Wan 2.2 (cu Lightning LoRA) pe Hugging Face
1,2K
Victor M a repostat
Vă prezentăm GLM-4.5V: o descoperire în raționamentul vizual open-source
GLM-4.5V oferă performanțe de ultimă generație printre modelele open-source din clasa sa de dimensiuni, dominând în 41 de benchmark-uri.
Construit pe modelul de bază GLM-4.5-Air, GLM-4.5V moștenește tehnici dovedite de la GLM-4.1V-Thinking, realizând în același timp o scalare eficientă printr-o arhitectură MoE puternică de 106B parametri.
Fața îmbrățișată:
GitHub:
API:
Încercați-l acum:

264,76K
Limită superioară
Clasament
Favorite
La modă pe lanț
La modă pe X
Principalele finanțări recente
Cele mai importante