Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Wir haben die Diagramme aktualisiert, die wir verwenden, um das offene Modell-Ökosystem bei @interconnectsai zu messen, um das ATOM-Projekt zu leiten und um zu verstehen, was passiert.
Wir haben etwa 8 Diagramme, um zusammenzufassen, was passiert.
Zuerst das Gesamtbild, das Chinas wachsende Akzeptanz zeigt.

2. Wenn man die Organisationen betrachtet, ist Qwen das am schnellsten wachsende, aber OpenAI hat einen bedeutenden Schritt gemacht, den viele Organisationen nicht gemacht haben.
Llama ist nach wie vor der führende Anbieter in den USA, obwohl im letzten Jahr keine erfolgreichen Modelle veröffentlicht wurden.

3. Neue Akteure wie GLM, MiniMax, Kimi, Nemotron haben trotz fantastischer Modelle nur sehr geringe messbare Akzeptanz damit. Es wird besser, aber diese Skala ist wichtig, um sie im Vergleich zu Qwen/Llama im Hinterkopf zu behalten.

4. Qwens 1 Schwäche liegt bei großen Modellen, wo DeepSeek sie bei den Gesamtdownloads dominiert.

5. Wir können Qwens Dominanz bei den Downloads im Dezember sehen, wo 5 Qwen 3 Modelle ((Qwen3-[0.6B, 1.7B, 4B (Original), 8B und 4B-Instruct-2507])) mehr Downloads haben als jedes Modell von OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI und MiniMax zusammen.

6. Wenn Sie auf alle Modelle herauszoomen, hat Qwen mehr Downloads als jeder Wettbewerber im Bereich LLMs.

7. Qwen nutzt diesen Vorteil, um immer noch das am besten abgestimmte Modell zu sein.

8. Und China hat immer noch die intelligentesten Modelle in fast jedem Benchmark, hier sind die aktuellen Rankings von ArtificialAnalysis.

Für mehr Informationen siehe den Beitrag über Interconnects:
oder besuche

1,35K
Top
Ranking
Favoriten
