熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁

Artificial Analysis
獨立分析 AI 模型和託管供應商 - 為您的用例選擇最佳模型和 API 供應商
Cerebras 本週展示了其以非常高的速度托管大型 MoE 的能力,推出了 Qwen3 235B 2507 和 Qwen3 Coder 480B 端點,輸出速度超過 1,500 個標記/秒
➤ @CerebrasSystems 現在提供 Qwen3 235B 2507 推理和非推理的端點。這兩個模型的總參數為 235B,活躍參數為 22B。
➤ Qwen 3 235B 2507 推理提供的智能可與 o4-mini(高)和 DeepSeek R1 0528 相媲美。非推理變體的智能可與 Kimi K2 相媲美,並且遠超過 GPT-4.1 和 Llama 4 Maverick。
➤ Qwen3 Coder 480B 的總參數為 480B,活躍參數為 35B。這個模型在代理編碼方面特別強大,可以用於各種編碼代理工具,包括 Qwen3-Coder CLI。
Cerebras 的推出代表了這種智能首次以這些輸出速度可用,並有潛力解鎖新的用例——例如,使用推理模型來處理代理的每一步,而不必等待幾分鐘。

23.59K
🇰🇷 LG 最近推出了 EXAONE 4.0 32B - 在人工分析智能指數上得分 62,這是迄今為止 32B 型號的最高分數。
@LG_AI_Research 的 EXAONE 4.0 有兩個變體:我們在此報告基準測試結果的 32B 混合推理模型,以及一個為設備應用設計的小型 1.2B 模型,我們尚未對其進行基準測試。
隨著 Upstage 最近發布的 Solar Pro 2,看到韓國 AI 實驗室與美國和中國一起接近智能排行榜的頂端,令人興奮。
關鍵結果:
➤ 🧠 EXAONE 4.0 32B(推理):在推理模式下,EXAONE 4.0 在人工分析智能指數上得分 62。這與 Claude 4 Opus 和 NVIDIA 的新 Llama Nemotron Super 49B v1.5 相匹配,僅比 Gemini 2.5 Flash 低 1 分。
➤ ⚡ EXAONE 4.0 32B(非推理):在非推理模式下,EXAONE 4.0 在人工分析智能指數上得分 51。儘管總參數僅約為 1/4,但在智能上與 Llama 4 Maverick 相匹配(雖然活躍參數約為 2 倍)。
➤ ⚙️ 輸出標記和冗長性:在推理模式下,EXAONE 4.0 使用了 100M 輸出標記來計算人工分析智能指數。這比其他一些前沿模型高,但與最近推理模型使用更多輸出標記以「思考更多」的趨勢一致 - 類似於 Llama Nemotron Super 49B v1.5、Grok 4 和 Qwen3 235B 2507 推理。在非推理模式下,EXAONE 4.0 使用了 15M 標記 - 對於非推理者來說算是高,但不及 Kimi K2 的 30M。
關鍵細節:
➤ 混合推理:該模型在「推理」模式和「非推理」模式之間提供選擇性。
➤ 可用性:目前由 @friendliai 托管,並且由 FriendliAI 以每 1M 輸入和輸出標記 1 美元的價格具有競爭力(尤其是與專有選項相比)。
➤ 開放權重:EXAONE 4.0 是一個開放權重模型,根據 EXAONE AI 模型許可協議 1.2 提供。該許可限制商業使用。
➤ 多模態:僅支持文本輸入和輸出。
➤ 上下文窗口:131k 標記。
➤ 參數:32B 活躍和總參數,提供 16 位和 8 位精度(這意味著該模型可以在單個 H100 芯片上以全精度運行)。

41.33K
宣布人工分析音樂競技場排行榜:擁有超過5000票的Suno v4.5是領先的音樂生成模型,緊隨其後的是Riffusion的FUZZ-1.1 Pro。
Google的Lyria 2在我們的器樂排行榜中名列第三,而Udio的v1.5 Allegro在我們的聲樂排行榜中名列第三。
器樂排行榜如下:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stable Audio 2.0
@metaai MusicGen
排名基於社區在多樣化的音樂類型和提示中的投票。想要看到你的提示被展示嗎?你今天可以在競技場提交提示。
👇 下面是聲樂排行榜和參與鏈接!

21.94K
2024年至2025年的模型需求變化:Google (+49pts)、DeepSeek (+53pts) 和 xAI (+31pts) 在過去一年中實現了需求份額的巨大增長。
@Google 已經從 AI 落後者轉變為 AI 領導者,使用或考慮 Gemini 模型系列的受訪者比例增加了約 2.5 倍。這一變化的主要驅動力是 Google 在智能方面取得了顯著進展:Gemini 2.5 Pro 現在在我們的人工智能分析指數中排名第三,而在 2024 年初則顯著落後於 OpenAI 和 Anthropic。
@deepseek_ai 在 2024 年上半年僅發布了 DeepSeek 67B,這是一個採用有限且表現不如 Llama 3 70B 的模型。DeepSeek 首次在 2024 年底隨著其 V2 模型的發布而開始受到一些關注,然後在 2025 年初隨著其 V3 和 R1 模型的推出迅速被採用,這使他們在開放權重模型中達到了領導地位。
@xai 在 2024 年上半年中期發布了其首個模型 Grok-1,並隨後迅速在所有模型中攀升至智能領導地位,隨著接連的發布,最終在上週推出了 Grok 4。
來源:人工分析 AI 採用調查 2025 年上半年(報告可在人工分析網站上獲得)

388.81K
Kimi K2 供應商:Groq 的輸出速度超過 400 個標記/秒,比 Moonshot 的第一方 API 快 40 倍。
恭喜多家供應商迅速推出 Kimi K2 的 API,包括 @GroqInc、@basetenco、@togethercompute、@FireworksAI_HQ、@parasail_io、@novita_labs、@DeepInfra,當然還有 @Kimi_Moonshot。考慮到模型的大小達到 1 兆個參數,這實在令人印象深刻。
Groq 以其驚人的速度脫穎而出。DeepInfra、Novita 和 Baseten 以其定價而著稱,成為唯一與 Moonshot 的第一方 API 定價相似或更便宜的供應商。
請參見下方供應商之間的進一步比較。我們預期隨著團隊對 K2 模型的優化,某些供應商的速度將迅速提升 - 我們下面的數據顯示過去 72 小時的中位數速度,但我們已經看到 DeepInfra 在今天的測量中跳升至 62 個標記/秒。

52.04K
雖然 Moonshot AI 的 Kimi k2 是人工分析智能指數中領先的開放權重非推理模型,但它輸出的標記數量約為其他非推理模型的 3 倍,模糊了推理與非推理之間的界限。
Kimi k2 是目前最大的主要開放權重模型 - 總參數達 1T,活躍參數為 32B(這需要大量的 1TB 記憶體以原生 FP8 存放權重)。我們在人工分析智能指數中將 k2 排在第 57 位,這是一個令人印象深刻的分數,將其置於 GPT-4.1 和 DeepSeek V3 等模型之上,但仍落後於領先的推理模型。
到目前為止,在我們的評估中,推理模型和非推理模型之間有明確的區別 - 不僅由模型是否使用 <reasoning> 標籤來定義,還主要由標記使用情況來定義。在人工分析智能指數中,回答所有評估所使用的標記的中位數數量對於推理模型來說約為非推理模型的 10 倍。
@Kimi_Moonshot 的 Kimi k2 使用的標記數量約為中位數非推理模型的 3 倍。當在其最大預算擴展思考模式下運行時,其標記使用量僅比 Claude 4 Sonnet 和 Opus 低 30%,並且在推理關閉的情況下,其標記使用量幾乎是 Claude 4 Sonnet 和 Opus 的三倍。
因此,我們建議將 Kimi k2 與 Claude 4 Sonnet 和 Opus 在其最大預算擴展思考模式下進行比較,而不是與 Claude 4 模型的非推理分數進行比較。
Kimi k2 可在 @Kimi_Moonshot 的第一方 API 以及 @FireworksAI_HQ、@togethercompute、@novita_labs 和 @parasail_io 上使用。
請參見下方和人工分析以獲取進一步分析 👇



60.38K
OpenAI 的新 Deep Research API 每次 API 調用成本高達 ~30 美元!這些新的 Deep Research API 端點可能只是新的最快花錢方式
在我們的 10 個深入研究測試查詢中,我們在 o3 上花費了 100 美元,在 o4-mini 上花費了 9.18 美元。成本怎麼會變得這麼大?高價格和數百萬代幣。
這些終端節點是 o3 和 o4-mini 的版本,已針對深度研究任務進行了 RL 處理。通過 API 提供的可用性允許它們通過 OpenAI 的 Web 搜尋工具和透過遠端 MCP 伺服器與自訂數據源一起使用。
O4-mini-Deep-Research 定價比 O3-Deep-Research 定價低 5 倍。在我們的測試查詢中,o4-mini 似乎也使用了更少的令牌 - 在我們的 10 個測試查詢中,它的總成本降低了 10 倍以上。
定價:
➤ o3-deep-research 的輸入價格為 10 美元/月(緩存輸入為 2.50 美元),輸出為 40 美元/米
➤ o4-mini-deep-research 的輸入價格為 2 美元/月(緩存輸入為 0.5 美元),輸出為 8 美元/月
這些終端節點都比 OpenAI 的標準 o3 和 o4-mini 終端節點貴得多 - 它們位於:
➤ o3:2 美元/月(緩存0.5美元)輸入,o3 8美元/月輸出
➤ o4-mini:1.1 美元/米(0.275 快存)輸入,4.4 美元/米輸出

37.03K
圖像編輯現在是開源的!Black Forest Labs 剛剛發佈了一個開放權重圖像編輯模型,其性能可與專有模型相媲美
@bfl_ml 發佈了 FLUX.1 Kontext [dev],這是一個 12B 圖像編輯模型。我們獲得了預發佈訪問許可權,並一直在我們的 Artificial Analysis Image Arena 中對其進行測試。
我們已經獨立驗證了它的性能可與許多專有型號相媲美或優於,包括 Google 的 Gemini 2.0 Flash 和位元組跳動的 Bagel。FLUX.1 Kontext [dev] 僅次於 Black Forest Labs 自己的專有模型和 OpenAI 的 GPT-4o。
託管 API 也可在 @FAL、 @replicate @togethercompute 上使用
下面的 HuggingFace 👐 上的重量連結

24.56K
熱門
排行
收藏
鏈上熱點
X 熱門榜
近期融資
最受認可