Abbiamo aggiornato i grafici che utilizziamo per misurare l'ecosistema del modello aperto su @interconnectsai, per guidare il Progetto ATOM e per comprendere cosa sta succedendo. Abbiamo circa 8 grafici per riassumere cosa sta accadendo. Per prima cosa, l'immagine ad alto livello che mostra il crescente vantaggio nell'adozione della Cina.
2. Quando guardi per organizzazione, Qwen è la più veloce in crescita, ma OpenAI ha fatto un passo significativo che molte organizzazioni non hanno fatto. Llama è ancora il principale fornitore statunitense, nonostante non abbia rilasciato modelli di successo lo scorso anno.
3. Nuovi entranti come GLM, MiniMax, Kimi, Nemotron, nonostante modelli fantastici, hanno avuto pochissima adozione misurabile con esso. Sta migliorando, ma questa scala è importante da tenere a mente rispetto a Qwen/Llama.
4. La 1 debolezza di Qwen è con i modelli grandi, dove DeepSeek li domina in termini di download totali.
5. Possiamo vedere il dominio di Qwen nei download di dicembre, dove 5 modelli Qwen 3 ((Qwen3-[0.6B, 1.7B, 4B (Original), 8B, e 4B-Instruct-2507])) hanno più download di ogni modello di OpenAI, Mistral AI, Nvidia, Z ai, Moonshot AI e MiniMax messi insieme.
6. Se allarghi la visuale a tutti i modelli, Qwen ha più download di ogni concorrente nel campo degli LLM.
7. Qwen sfrutta questo vantaggio per essere ancora il modello più affinato.
8. E la Cina ha ancora i modelli più intelligenti su quasi ogni benchmark, ecco i recenti ranking di ArtificialAnalysis.
Per ulteriori informazioni, consulta il post sugli interconnessioni: o visita
1,34K