Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Victor M
🤗 Responsable de l'@huggingface produit
Victor M a reposté
Nous venons de publier 3 millions d'échantillons d'un ensemble de données d'entraînement de modèle de langage visuel de haute qualité pour des cas d'utilisation tels que :
📄 reconnaissance optique de caractères (OCR)
📊 réponse à des questions visuelles (VQA)
📝 légendage
🤗 En savoir plus :
📥 Télécharger :
80,27K
Victor M a reposté
Vous pouvez maintenant affiner @Alibaba_Qwen Qwen-Image avec l'AI Toolkit avec 24 Go de VRAM en utilisant un adaptateur de récupération de précision personnalisé qui vous permet d'affiner à 3 bits avec une perte de précision minimale. Les changements marqués par rapport aux paramètres par défaut devraient fonctionner pour les GPU 3090/4090. Plus dans 🧵

15,77K
Victor M a reposté
J'aime vraiment beaucoup @jandotai
C'est une application très conviviale pour exécuter localement des LLM, idéale pour la confidentialité.
J'ai essayé d'autres comme LM Studio et Ollama, et elles sont bien mais très techniques, un peu trop difficiles pour moi.
Jan est simple, mignonne et jolie, et c'est une excellente alternative pour discuter sans envoyer vos données (et secrets ;)) à de grands fournisseurs d'IA.
Vous pouvez même exécuter des modèles de fournisseurs distants via API, si vous le souhaitez !
De plus, ils sont très réactifs aux retours et améliorent toujours l'application.
Je pense qu'il y a de la place pour les applications LLM exécutées localement et celles dans le cloud, l'exécution locale a du sens si vous voulez parler de choses très privées, thérapie, etc. Il est vraiment important que les gens puissent avoir cela sans craindre que vos données ne fuient à l'avenir.
(Je ne suis pas affilié ni payé, j'aime juste vraiment ça !)



218,32K
Victor M a reposté
Présentation de Jan-v1 : modèle 4B pour la recherche sur le web, une alternative open-source à Perplexity Pro.
Dans nos évaluations, Jan v1 offre une précision de 91 % en SimpleQA, surpassant légèrement Perplexity Pro tout en fonctionnant entièrement en local.
Cas d'utilisation :
- Recherche sur le web
- Recherche approfondie
Construit sur la nouvelle version de Qwen's Qwen3-4B-Thinking (jusqu'à 256k de longueur de contexte), affiné pour le raisonnement et l'utilisation d'outils dans Jan.
Vous pouvez exécuter le modèle dans Jan, llama.cpp ou vLLM. Pour activer la recherche dans Jan, allez dans Paramètres → Fonctionnalités expérimentales → Activé, puis Paramètres → Serveurs MCP → activez un MCP lié à la recherche tel que Serper.
Utilisez le modèle :
- Jan-v1-4B :
- Jan-v1-4B-GGUF :
Crédit à l'équipe @Alibaba_Qwen pour Qwen3 4B Thinking & @ggerganov pour llama.cpp.
633,24K
Qwen-Image + Wan-2.2 = 🔥

Victor M12 août, 06:19
Je suis tellement excité que nous puissions maintenant générer des vidéos de cette qualité en moins de 30 secondes. Open source à la victoire !
👇Essayez Wan 2.2 (avec Lightning LoRA) sur Hugging Face
1,19K
Victor M a reposté
Présentation de GLM-4.5V : une avancée dans le raisonnement visuel open-source
GLM-4.5V offre des performances de pointe parmi les modèles open-source de sa catégorie, dominant 41 benchmarks.
Construit sur le modèle de base GLM-4.5-Air, GLM-4.5V hérite de techniques éprouvées de GLM-4.1V-Thinking tout en réalisant un redimensionnement efficace grâce à une puissante architecture MoE de 106 milliards de paramètres.
Hugging Face :
GitHub :
API :
Essayez-le maintenant :

264,76K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables