Atualizamos os gráficos que usamos para medir o ecossistema de modelos abertos no @interconnectsai, para orientar o Projeto ATOM e para entender o que está acontecendo. Temos ~8 enredos para resumir o que está acontecendo. Primeiro, o quadro de alto nível que mostra a crescente liderança na adoção na China.
2. Quando você olha por organização, a Qwen é a que mais cresce, mas a OpenAI deu um passo significativo que muitas organizações ainda não deram. A Llama ainda é a principal fornecedora dos EUA, apesar de não ter lançado modelos de sucesso no ano passado.
3. Novos concorrentes como GLM, MiniMax, Kimi, Nemotron, apesar dos modelos fantásticos, tiveram pouca adoção mensurável com ele. Está melhorando, mas essa escala é importante de se ter em mente em relação a Qwen/Lhama.
4. A fraqueza número 1 do Qwen é com modelos grandes, onde o DeepSeek os domina no total de downloads.
5. Podemos ver a dominância da Qwen nos downloads de dezembro, onde 5 modelos Qwen 3 ((Qwen3-[0,6B, 1,7B, 4B (Original), 8B e 4B-Instruct-2507])) têm mais downloads do que todos os modelos da OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI e MiniMax juntos.
6. Se você ampliar para todos os modelos, o Qwen tem mais downloads do que qualquer concorrente dentro dos LLMs.
7. A Qwen aproveita essa vantagem para ainda ser o modelo mais refinado também.
8. E a China ainda tem os modelos mais inteligentes em quase todos os benchmarks, aqui estão os rankings recentes da ArtificialAnalysis.
Para mais, veja o post sobre interconexões: ou visita
1,37K