Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analisi indipendente dei modelli di intelligenza artificiale e dei provider di hosting: scegli il modello e il fornitore API migliori per il tuo caso d'uso
Cerebras ha dimostrato la sua capacità di ospitare grandi MoE a velocità molto elevate questa settimana, lanciando gli endpoint Qwen3 235B 2507 e Qwen3 Coder 480B a >1.500 token di output/s
➤ @CerebrasSystems ora offre endpoint sia per Qwen3 235B 2507 Reasoning che Non-reasoning. Entrambi i modelli hanno 235B parametri totali con 22B attivi.
➤ Qwen 3 235B 2507 Reasoning offre un'intelligenza comparabile a o4-mini (alta) e DeepSeek R1 0528. La variante Non-reasoning offre un'intelligenza comparabile a Kimi K2 e ben superiore a GPT-4.1 e Llama 4 Maverick.
➤ Qwen3 Coder 480B ha 480B parametri totali con 35B attivi. Questo modello è particolarmente forte per la codifica agentica e può essere utilizzato in una varietà di strumenti per agenti di codifica, incluso il Qwen3-Coder CLI.
I lanci di Cerebras rappresentano la prima volta che questo livello di intelligenza è stato accessibile a queste velocità di output e hanno il potenziale di sbloccare nuovi casi d'uso - come utilizzare un modello di ragionamento per ogni passo di un agente senza dover aspettare minuti.

23,61K
🇰🇷 LG ha recentemente lanciato EXAONE 4.0 32B - ottiene 62 nell'Artificial Analysis Intelligence Index, il punteggio più alto per un modello 32B fino ad ora.
L'EXAONE 4.0 di @LG_AI_Research è stato rilasciato in due varianti: il modello 32B di ragionamento ibrido di cui stiamo riportando i risultati di benchmarking qui, e un modello più piccolo da 1.2B progettato per applicazioni su dispositivo che non abbiamo ancora testato.
Insieme al recente rilascio di Solar Pro 2 di Upstage, è entusiasmante vedere i laboratori di intelligenza artificiale coreani unirsi a quelli degli Stati Uniti e della Cina vicino alla cima delle classifiche di intelligenza.
Risultati chiave:
➤ 🧠 EXAONE 4.0 32B (Ragionamento): In modalità ragionamento, EXAONE 4.0 ottiene 62 nell'Artificial Analysis Intelligence Index. Questo corrisponde a Claude 4 Opus e al nuovo Llama Nemotron Super 49B v1.5 di NVIDIA, e si posiziona solo 1 punto dietro Gemini 2.5 Flash.
➤ ⚡ EXAONE 4.0 32B (Non-Ragionamento): In modalità non-ragionamento, EXAONE 4.0 ottiene 51 nell'Artificial Analysis Intelligence Index. Corrisponde a Llama 4 Maverick in intelligenza nonostante abbia solo ~1/4 dei parametri totali (anche se ha ~2x i parametri attivi).
➤ ⚙️ Token di output e verbosità: In modalità ragionamento, EXAONE 4.0 ha utilizzato 100M di token di output per l'Artificial Analysis Intelligence Index. Questo è superiore a molti altri modelli all'avanguardia, ma si allinea con le recenti tendenze dei modelli di ragionamento che utilizzano più token di output per 'pensare di più' - simile a Llama Nemotron Super 49B v1.5, Grok 4 e Qwen3 235B 2507 Reasoning. In modalità non-ragionamento, EXAONE 4.0 ha utilizzato 15M di token - alto per un non-ragionatore, ma non così alto come i 30M di Kimi K2.
Dettagli chiave:
➤ Ragionamento ibrido: Il modello offre opzioni tra modalità 'ragionamento' e modalità 'non-ragionamento'.
➤ Disponibilità: Attualmente ospitato da @friendliai, e a un prezzo competitivo (soprattutto rispetto alle opzioni proprietarie) da FriendliAI a $1 per 1M di token di input e output.
➤ Pesi aperti: EXAONE 4.0 è un modello a pesi aperti disponibile sotto l'EXAONE AI Model License Agreement 1.2. La licenza limita l'uso commerciale.
➤ Multimodalità: Solo input e output testuali.
➤ Finestra di contesto: 131k token.
➤ Parametri: 32B di parametri attivi e totali, disponibili in precisione 16bit e 8bit (significa che il modello può essere eseguito su un singolo chip H100 in piena precisione).

41,35K
Annunciamo la classifica dell'Arena di Analisi Musicale Artificiale: con oltre 5.000 voti, Suno v4.5 è il modello di generazione musicale leader, seguito da FUZZ-1.1 Pro di Riffusion.
Lyria 2 di Google si piazza al terzo posto nella nostra classifica strumentale, e v1.5 Allegro di Udio si piazza al terzo posto nella nostra classifica vocale.
La classifica strumentale è la seguente:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stable Audio 2.0
@metaai MusicGen
Le classifiche si basano sui voti della comunità su una vasta gamma di generi e suggerimenti. Vuoi vedere il tuo suggerimento in evidenza? Puoi inviare suggerimenti nell'arena oggi.
👇 Vedi qui sotto la classifica vocale e il link per partecipare!

21,96K
Modifica della domanda modello 2024-2025: Google (+49pt), DeepSeek (+53pt) e xAI (+31pt) hanno registrato enormi guadagni nella quota di domanda nell'ultimo anno.
@Google è passata dall'essere un ritardatario nell'AI a un leader nell'AI con un aumento di ~2,5 volte nella proporzione di rispondenti che utilizzano o considerano la serie di modelli Gemini. Un fattore chiave di questo è stato il significativo guadagno di Google in intelligenza: Gemini 2.5 Pro ora si trova al #3 nel nostro Indice di Intelligenza Analitica Artificiale, rispetto a un notevole ritardo rispetto a OpenAI e Anthropic all'inizio del 2024.
@deepseek_ai nel primo semestre del 2024 aveva rilasciato solo DeepSeek 67B, un modello che ha visto un'adozione limitata e ha sottoperformato rispetto a Llama 3 70B. DeepSeek ha visto un certo aumento solo alla fine del 2024 con il rilascio del loro modello V2, e poi ha visto un'adozione rapida all'inizio del 2025 con i loro modelli V3 e R1 che li hanno portati alla leadership tra i modelli a pesi aperti.
@xai ha rilasciato il suo primo modello Grok-1 a metà del primo semestre del 2024 e da allora è rapidamente salito alla leadership in intelligenza tra tutti i modelli con rilasci successivi, culminando nel lancio della scorsa settimana di Grok 4.
Fonte: Indagine sull'adozione dell'AI di Artificial Analysis H1 2025 (rapporto disponibile sul sito web di Artificial Analysis)

388,83K
Fornitori Kimi K2: Groq sta servendo Kimi K2 a >400 token di output/s, 40 volte più veloce dell'API di prima parte di Moonshot.
Congratulazioni a diversi fornitori per essere stati rapidi nel lanciare API per Kimi K2, tra cui @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra e ovviamente @Kimi_Moonshot. Questo è impressionante considerando le dimensioni del modello con 1 trilione di parametri totali.
Groq si distingue per la velocità fulminea. DeepInfra, Novita e Baseten si distinguono per i loro prezzi, essendo gli unici fornitori a offrire prezzi simili o più economici rispetto all'API di prima parte di Moonshot.
Vedi di seguito ulteriori confronti tra i fornitori. Ci aspettiamo rapidi aumenti di velocità tra alcuni fornitori mentre i team ottimizzano per il modello K2 - i nostri numeri qui sotto mostrano le velocità medie delle ultime 72 ore, ma stiamo già vedendo DeepInfra salire a 62 token/s nelle misurazioni di oggi.

52,05K
Mentre Kimi k2 di Moonshot AI è il principale modello non di ragionamento con pesi aperti nell'Artificial Analysis Intelligence Index, produce circa 3 volte più token rispetto ad altri modelli non di ragionamento, sfumando i confini tra ragionamento e non ragionamento.
Kimi k2 è il più grande modello con pesi aperti finora - 1T di parametri totali con 32B attivi (questo richiede un'enorme memoria di 1TB a FP8 nativo per contenere i pesi). Abbiamo k2 al 57° posto nell'Artificial Analysis Intelligence Index, un punteggio impressionante che lo colloca sopra modelli come GPT-4.1 e DeepSeek V3, ma dietro ai principali modelli di ragionamento.
Fino ad ora, c'è stata una chiara distinzione tra modelli di ragionamento e modelli non di ragionamento nelle nostre valutazioni - definita non solo dal fatto che il modello utilizzi i tag <reasoning>, ma principalmente dall'uso dei token. Il numero mediano di token utilizzati per rispondere a tutte le valutazioni nell'Artificial Analysis Intelligence Index è circa 10 volte superiore per i modelli di ragionamento rispetto ai modelli non di ragionamento.
Il Kimi k2 di @Kimi_Moonshot utilizza circa 3 volte il numero di token che utilizza il modello non di ragionamento mediano. Il suo utilizzo di token è solo fino al 30% inferiore rispetto a Claude 4 Sonnet e Opus quando eseguiti nella loro modalità di pensiero esteso a budget massimo, ed è quasi triplo rispetto all'uso di token di entrambi Claude 4 Sonnet e Opus con il ragionamento disattivato.
Pertanto, raccomandiamo che Kimi k2 venga confrontato con Claude 4 Sonnet e Opus nelle loro modalità di pensiero esteso a budget massimo, non con i punteggi non di ragionamento per i modelli Claude 4.
Kimi k2 è disponibile sull'API di prima parte di @Kimi_Moonshot così come su @FireworksAI_HQ, @togethercompute, @novita_labs e @parasail_io.
Vedi qui sotto e su Artificial Analysis per ulteriori analisi 👇



60,4K
Il nuovo Deep Research API di OpenAI costa fino a ~$30 per chiamata API! Questi nuovi endpoint del Deep Research API potrebbero essere il modo più veloce per spendere soldi.
Durante le nostre 10 query di test sul deep research, abbiamo speso $100 su o3 e $9.18 su o4-mini. Come fanno i costi a diventare così elevati? Prezzi alti e milioni di token.
Questi endpoint sono versioni di o3 e o4-mini che sono state RL’d per compiti di deep research. La disponibilità tramite API consente di utilizzarli sia con lo strumento di ricerca web di OpenAI che con fonti di dati personalizzate tramite server MCP remoti.
Il prezzo di o4-mini-deep-research è 5 volte inferiore a quello di o3-deep-research. Nelle nostre query di test, o4-mini sembra anche utilizzare meno token - è risultato oltre 10 volte più economico in totale nelle nostre 10 query di test.
Prezzi:
➤ o3-deep-research è prezzato a $10 /M input ($2.50 input memorizzato), $40 /M output
➤ o4-mini-deep-research è prezzato a $2 /M input ($0.5 input memorizzato), $8 /M output
Questi endpoint sono entrambi sostanzialmente più costosi rispetto agli standard endpoint o3 e o4-mini di OpenAI - questi sono a:
➤ o3: $2 /M ($0.5 memorizzato) input, $8 /M output per o3
➤ o4-mini: $1.1 /M (0.275 memorizzato) input, $4.4 /M output

37,05K
Black Forest Labs sta per creare un'ondata di nuove startup con il loro modello di editing delle immagini open weights rilasciato oggi
- Il virtual try-on diventerà 10 volte migliore, ma questo è solo l'inizio. Vedremo anche nuove esperienze mentre le persone si divertiranno con questi modelli (molto più espansivi dei filtri di Snapchat e Instagram)
- Il modello è solo di 12B e può essere affinato su hardware consumer
- Piattaforme come @FAL offrono supporto completo per l'addestramento LoRA
Credito a @FAL per l'immagine qui sotto, hanno un ottimo articolo sulla loro offerta di fine-tuning (link qui sotto)

34,14K
L'editing delle immagini è ora open source! Black Forest Labs ha appena rilasciato un modello di editing delle immagini con pesi aperti, comparabile in prestazioni ai modelli proprietari.
@bfl_ml ha rilasciato FLUX.1 Kontext [dev], un modello di editing delle immagini da 12B. Ci è stato dato accesso in anteprima e lo abbiamo testato nella nostra Arena di Analisi delle Immagini Artificiale.
Abbiamo verificato in modo indipendente che offre prestazioni comparabili o superiori a diversi modelli proprietari, tra cui il Gemini 2.0 Flash di Google e il Bagel di ByteDance. FLUX.1 Kontext [dev] è solo dietro ai modelli proprietari di Black Forest Labs e al GPT-4o di OpenAI.
API ospitate sono disponibili anche su @FAL, @replicate, @togethercompute.
Link qui sotto per i pesi su HuggingFace 👐

24,58K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari