Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Actualizamos los gráficos que usamos para medir el ecosistema de modelos abiertos en @interconnectsai, para guiar el Proyecto ATOM y para entender qué está ocurriendo.
Tenemos ~8 tramas para resumir lo que está pasando.
Primero, la imagen a gran nivel que muestra el creciente liderazgo en la adopción en China.

2. Si miras por organización, Qwen es la que más rápido crece, pero OpenAI ha dado un paso significativo que muchas organizaciones no han logrado.
Llama sigue siendo el principal proveedor estadounidense, a pesar de no haber lanzado modelos exitosos el año pasado.

3. Nuevos participantes como GLM, MiniMax, Kimi, Nemotron, a pesar de modelos fantásticos, han tenido muy poca adopción medible con él. Está mejorando, pero esta escala es importante tenerla en cuenta respecto a Qwen/Llama.

4. La debilidad de Qwen es con modelos grandes, donde DeepSeek los domina en el total de descargas.

5. Podemos ver el dominio de Qwen en las descargas de diciembre, donde 5 modelos Qwen 3 ((Qwen3-[0,6B, 1,7B, 4B (Original), 8B y 4B-Instruct-2507])) tienen más descargas que todos los modelos de OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI y MiniMax juntos.

6. Si amplias la vista a todos los modelos, Qwen tiene más descargas que cualquier competidor dentro de los LLMs.

7. Qwen aprovecha esta ventaja para seguir siendo el modelo más afinado también.

8. Y China sigue teniendo los modelos más inteligentes en casi todos los benchmarks, aquí están las recientes clasificaciones de ArtificialAnalysis.

Para más información, consulta la publicación sobre interconexiones:
o visita

1.37K
Populares
Ranking
Favoritas
