Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Am actualizat graficele pe care le folosim pentru a măsura ecosistemul modelului deschis la @interconnectsai, pentru a ghida Proiectul ATOM și pentru a înțelege ce se întâmplă.
Avem ~8 ploturi care rezumă ce se întâmplă.
În primul rând, imaginea de ansamblu care arată creșterea avansului de adopție în China.

2. Când te uiți pe organizație, Qwen este cea care crește cel mai rapid, dar OpenAI a făcut un pas semnificativ pe care multe organizații nu l-au făcut.
Llama rămâne principalul furnizor din SUA, deși nu a lansat modele de succes anul trecut.

3. Noii concurenți precum GLM, MiniMax, Kimi, Nemotron, în ciuda modelelor fantastice, au avut foarte puțină adopție măsurabilă. Se îmbunătățește, dar această scară este importantă de reținut în raport cu Qwen/Llama.

4. Slăbiciunea 1 a Qwen-ului este la modelele mari, unde DeepSeek le domină la descărcări totale.

5. Putem observa dominația Qwen în descărcările din decembrie, unde 5 modele Qwen 3 ((Qwen3-[0.6B, 1.7B, 4B (Original), 8B și 4B-Instruct-2507])) au mai multe descărcări decât orice model de la OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI și MiniMax la un loc.

6. Dacă te apropii de toate modelele, Qwen are mai multe descărcări decât orice concurent din cadrul LLM-urilor.

7. Qwen profită de acest avantaj pentru a fi încă cel mai bine reglat model.

8. Și China încă are cele mai inteligente modele la aproape fiecare benchmark, iată clasamentele recente ArtificialAnalysis.

Pentru mai multe detalii, vedeți articolul despre interconexiuni:
sau să viziteze

1,34K
Limită superioară
Clasament
Favorite
