Nous avons mis à jour les graphiques que nous utilisons pour mesurer l'écosystème du modèle ouvert chez @interconnectsai, pour guider le projet ATOM et pour comprendre ce qui se passe. Nous avons environ 8 graphiques pour résumer ce qui se passe. Tout d'abord, l'image d'ensemble montrant l'adoption croissante de la Chine.
2. Lorsque vous regardez par organisation, Qwen est la plus rapide en croissance, mais OpenAI a fait un pas significatif que de nombreuses organisations n'ont pas fait. Llama reste le principal fournisseur américain, malgré le fait qu'il n'ait pas sorti de modèles réussis l'année dernière.
3. De nouveaux entrants comme GLM, MiniMax, Kimi, Nemotron, malgré des modèles fantastiques, ont eu très peu d'adoption mesurable avec cela. Ça s'améliore, mais cette échelle est importante à garder à l'esprit par rapport à Qwen/Llama.
4. La faiblesse de Qwen 1 réside dans les grands modèles, où DeepSeek les domine en termes de téléchargements totaux.
5. Nous pouvons voir la domination de Qwen dans les téléchargements de décembre, où 5 modèles Qwen 3 ((Qwen3-[0.6B, 1.7B, 4B (Original), 8B, et 4B-Instruct-2507])) ont plus de téléchargements que tous les modèles d'OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI et MiniMax réunis.
6. Si vous dézoomez sur tous les modèles, Qwen a plus de téléchargements que tous les concurrents dans les LLM.
7. Qwen tire parti de cet avantage pour rester le modèle le plus affiné.
8. Et la Chine a toujours les modèles les plus performants sur presque tous les benchmarks, voici les récents classements d'ArtificialAnalysis.
Pour en savoir plus, consultez le post sur les interconnexions : ou visitez
1,35K