Atualizámos os gráficos que usamos para medir o ecossistema do modelo aberto em @interconnectsai, para orientar o Projeto ATOM e para entender o que está a acontecer. Temos cerca de 8 gráficos para resumir o que está a acontecer. Primeiro, a visão geral mostrando a crescente adoção da China.
2. Quando olhamos por organização, a Qwen é a que mais cresce, mas a OpenAI deu um passo significativo que muitas organizações não deram. A Llama continua a ser o principal fornecedor nos EUA, apesar de não ter lançado modelos bem-sucedidos no ano passado.
3. Novos entrantes como GLM, MiniMax, Kimi, Nemotron, apesar de modelos fantásticos, tiveram uma adoção muito limitada com isso. Está a melhorar, mas esta escala é importante ter em mente em relação ao Qwen/Llama.
4. A única fraqueza do Qwen é com modelos grandes, onde o DeepSeek os domina em total de downloads.
5. Podemos ver a dominância do Qwen nos downloads de dezembro, onde 5 modelos Qwen 3 ((Qwen3-[0.6B, 1.7B, 4B (Original), 8B, & 4B-Instruct-2507])) têm mais downloads do que todos os modelos da OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI e MiniMax juntos.
6. Se você ampliar para todos os modelos, o Qwen tem mais downloads do que todos os concorrentes dentro dos LLMs.
7. A Qwen aproveita esta vantagem para continuar a ser o modelo mais ajustado também.
8. E a China ainda tem os modelos mais inteligentes em quase todos os benchmarks, aqui estão os rankings recentes da ArtificialAnalysis.
Para mais informações, veja o post sobre interconexões: ou visite
1,35K