Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Atualizámos os gráficos que usamos para medir o ecossistema do modelo aberto em @interconnectsai, para orientar o Projeto ATOM e para entender o que está a acontecer.
Temos cerca de 8 gráficos para resumir o que está a acontecer.
Primeiro, a visão geral mostrando a crescente adoção da China.

2. Quando olhamos por organização, a Qwen é a que mais cresce, mas a OpenAI deu um passo significativo que muitas organizações não deram.
A Llama continua a ser o principal fornecedor nos EUA, apesar de não ter lançado modelos bem-sucedidos no ano passado.

3. Novos entrantes como GLM, MiniMax, Kimi, Nemotron, apesar de modelos fantásticos, tiveram uma adoção muito limitada com isso. Está a melhorar, mas esta escala é importante ter em mente em relação ao Qwen/Llama.

4. A única fraqueza do Qwen é com modelos grandes, onde o DeepSeek os domina em total de downloads.

5. Podemos ver a dominância do Qwen nos downloads de dezembro, onde 5 modelos Qwen 3 ((Qwen3-[0.6B, 1.7B, 4B (Original), 8B, & 4B-Instruct-2507])) têm mais downloads do que todos os modelos da OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI e MiniMax juntos.

6. Se você ampliar para todos os modelos, o Qwen tem mais downloads do que todos os concorrentes dentro dos LLMs.

7. A Qwen aproveita esta vantagem para continuar a ser o modelo mais ajustado também.

8. E a China ainda tem os modelos mais inteligentes em quase todos os benchmarks, aqui estão os rankings recentes da ArtificialAnalysis.

Para mais informações, veja o post sobre interconexões:
ou visite

1,35K
Top
Classificação
Favoritos
