Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vi uppdaterade de diagram vi använder för att mäta det öppna modellekosystemet vid @interconnectsai, för att vägleda ATOM-projektet och för att förstå vad som händer.
Vi har ~8 diagram för att sammanfatta vad som händer.
För det första, den övergripande bilden som visar Kinas växande adoptionsledning.

2. När man tittar per organisation är Qwen den snabbast växande, men OpenAI har tagit ett meningsfullt steg som många organisationer inte har gjort.
Llama är fortfarande den ledande amerikanska leverantören, trots att de inte släppte framgångsrika modeller förra året.

3. Nya aktörer som GLM, MiniMax, Kimi, Nemotron, trots fantastiska modeller, har haft mycket lite mätbar adoption av det. Det blir bättre, men denna skala är viktig att ha i åtanke när det gäller Qwen/Llama.

4. Qwens enda svaghet är stora modeller, där DeepSeek dominerar dem på totala nedladdningar.

5. Vi kan se Qwens dominans i decembernedladdningar, där 5 Qwen 3-modeller ((Qwen3-[0.6B, 1.7B, 4B (Original), 8B och 4B-Instruct-2507])) har fler nedladdningar än alla modeller från OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI och MiniMax tillsammans.

6. Om du zoomar ut till alla modeller har Qwen fler nedladdningar än alla konkurrenter inom LLM:er.

7. Qwen utnyttjar denna fördel och är fortfarande den mest finjusterade modellen.

8. Och Kina har fortfarande de smartaste modellerna på nästan alla riktmärken, här är de senaste ArtificialAnalysis-rankningarna.

För mer, se inlägget om sammankopplingar:
eller besöka

1,34K
Topp
Rankning
Favoriter
