Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Actualizamos los gráficos que utilizamos para medir el ecosistema del modelo abierto en @interconnectsai, para guiar el Proyecto ATOM y para entender lo que está sucediendo.
Tenemos aproximadamente 8 gráficos para resumir lo que está sucediendo.
Primero, la imagen de alto nivel que muestra el creciente liderazgo de adopción de China.

2. Cuando miras por organización, Qwen es el que más rápido crece, pero OpenAI ha dado un paso significativo que muchas organizaciones no han dado.
Llama sigue siendo el proveedor líder en EE. UU., a pesar de no haber lanzado modelos exitosos el año pasado.

3. Nuevos participantes como GLM, MiniMax, Kimi, Nemotron, a pesar de tener modelos fantásticos, han tenido muy poca adopción medible con ello. Está mejorando, pero esta escala es importante tener en cuenta en relación con Qwen/Llama.

4. La única debilidad de Qwen es con los modelos grandes, donde DeepSeek los domina en descargas totales.

5. Podemos ver el dominio de Qwen en las descargas de diciembre, donde 5 modelos de Qwen 3 ((Qwen3-[0.6B, 1.7B, 4B (Original), 8B, y 4B-Instruct-2507])) tienen más descargas que todos los modelos de OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI y MiniMax combinados.

6. Si amplías la vista a todos los modelos, Qwen tiene más descargas que cualquier competidor dentro de los LLMs.

7. Qwen aprovecha esta ventaja para seguir siendo el modelo más ajustado también.

8. Y China sigue teniendo los modelos más inteligentes en casi todos los benchmarks, aquí están los recientes rankings de ArtificialAnalysis.

Para más información, consulta la publicación sobre interconexiones:
o visita

1,37K
Parte superior
Clasificación
Favoritos
