Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Phân tích độc lập các mô hình AI và nhà cung cấp dịch vụ lưu trữ - chọn mô hình và nhà cung cấp API tốt nhất cho trường hợp sử dụng của bạn
Cerebras đã chứng minh khả năng của mình trong việc lưu trữ các MoE lớn với tốc độ rất cao trong tuần này, ra mắt các điểm cuối Qwen3 235B 2507 và Qwen3 Coder 480B với tốc độ >1.500 token đầu ra/s
➤ @CerebrasSystems hiện cung cấp các điểm cuối cho cả Qwen3 235B 2507 Lý luận & Không lý luận. Cả hai mô hình đều có tổng cộng 235B tham số với 22B đang hoạt động.
➤ Qwen 3 235B 2507 Lý luận cung cấp trí thông minh tương đương với o4-mini (cao) & DeepSeek R1 0528. Biến thể Không lý luận cung cấp trí thông minh tương đương với Kimi K2 và cao hơn nhiều so với GPT-4.1 và Llama 4 Maverick.
➤ Qwen3 Coder 480B có tổng cộng 480B tham số với 35B đang hoạt động. Mô hình này đặc biệt mạnh cho lập trình agentic và có thể được sử dụng trong nhiều công cụ lập trình agent, bao gồm cả Qwen3-Coder CLI.
Các sản phẩm ra mắt của Cerebras đại diện cho lần đầu tiên mức độ trí thông minh này có thể truy cập với tốc độ đầu ra như vậy và có tiềm năng mở khóa các trường hợp sử dụng mới - như việc sử dụng mô hình lý luận cho mỗi bước của một agent mà không cần phải chờ đợi hàng phút.

23,6K
🇰🇷 LG gần đây đã ra mắt EXAONE 4.0 32B - nó đạt 62 trên Chỉ số Phân tích Trí tuệ Nhân tạo, điểm số cao nhất cho một mô hình 32B cho đến nay.
EXAONE 4.0 của @LG_AI_Research được phát hành với hai biến thể: mô hình lý luận 32B mà chúng tôi đang báo cáo kết quả chuẩn hóa ở đây, và một mô hình nhỏ hơn 1.2B được thiết kế cho các ứng dụng trên thiết bị mà chúng tôi chưa chuẩn hóa.
Cùng với việc ra mắt Solar Pro 2 gần đây của Upstage, thật thú vị khi thấy các phòng thí nghiệm AI Hàn Quốc gia nhập cùng Mỹ và Trung Quốc gần đầu bảng xếp hạng trí tuệ.
Kết quả chính:
➤ 🧠 EXAONE 4.0 32B (Lý luận): Trong chế độ lý luận, EXAONE 4.0 đạt 62 trên Chỉ số Phân tích Trí tuệ Nhân tạo. Điều này tương đương với Claude 4 Opus và Llama Nemotron Super 49B v1.5 mới từ NVIDIA, và chỉ kém 1 điểm so với Gemini 2.5 Flash.
➤ ⚡ EXAONE 4.0 32B (Không lý luận): Trong chế độ không lý luận, EXAONE 4.0 đạt 51 trên Chỉ số Phân tích Trí tuệ Nhân tạo. Nó tương đương với Llama 4 Maverick về trí tuệ mặc dù chỉ có khoảng ~1/4 tổng số tham số (mặc dù có ~2x số tham số hoạt động).
➤ ⚙️ Token đầu ra và độ dài: Trong chế độ lý luận, EXAONE 4.0 đã sử dụng 100M token đầu ra cho Chỉ số Phân tích Trí tuệ Nhân tạo. Điều này cao hơn một số mô hình tiên tiến khác, nhưng phù hợp với xu hướng gần đây của các mô hình lý luận sử dụng nhiều token đầu ra hơn để 'suy nghĩ nhiều hơn' - tương tự như Llama Nemotron Super 49B v1.5, Grok 4, và Qwen3 235B 2507 Lý luận. Trong chế độ không lý luận, EXAONE 4.0 đã sử dụng 15M token - cao cho một mô hình không lý luận, nhưng không cao bằng 30M của Kimi K2.
Chi tiết chính:
➤ Lý luận hỗn hợp: Mô hình cung cấp tùy chọn giữa chế độ 'lý luận' và chế độ 'không lý luận'.
➤ Tính khả dụng: Hiện đang được lưu trữ bởi @friendliai, và có giá cạnh tranh (đặc biệt so với các tùy chọn độc quyền) bởi FriendliAI với giá 1 đô la cho mỗi 1M token đầu vào và đầu ra.
➤ Trọng số mở: EXAONE 4.0 là một mô hình trọng số mở có sẵn theo Thỏa thuận Giấy phép Mô hình AI EXAONE 1.2. Giấy phép này giới hạn việc sử dụng thương mại.
➤ Đa phương thức: Chỉ đầu vào và đầu ra văn bản.
➤ Cửa sổ ngữ cảnh: 131k token.
➤ Tham số: 32B tham số hoạt động và tổng, có sẵn ở độ chính xác 16bit và 8bit (có nghĩa là mô hình có thể chạy trên một chip H100 duy nhất với độ chính xác đầy đủ).

41,34K
Thông báo về Bảng xếp hạng Âm nhạc Phân tích Nhân tạo: với hơn 5k phiếu bầu, Suno v4.5 là mô hình Tạo âm nhạc hàng đầu, tiếp theo là FUZZ-1.1 Pro của Riffusion.
Lyria 2 của Google đứng thứ ba trong bảng xếp hạng Nhạc cụ của chúng tôi, và Allegro v1.5 của Udio đứng thứ ba trong bảng xếp hạng Giọng hát của chúng tôi.
Bảng xếp hạng Nhạc cụ như sau:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stable Audio 2.0
@metaai MusicGen
Xếp hạng dựa trên phiếu bầu của cộng đồng trong một loạt các thể loại và gợi ý đa dạng. Bạn muốn thấy gợi ý của mình được đưa vào danh sách? Bạn có thể gửi gợi ý trong đấu trường hôm nay.
👇 Xem bên dưới cho Bảng xếp hạng Giọng hát và liên kết để tham gia!

21,95K
Thay đổi nhu cầu mô hình từ 2024 đến 2025: Google (+49 điểm), DeepSeek (+53 điểm) và xAI (+31 điểm) đã đạt được những bước tiến lớn trong thị phần nhu cầu trong năm qua
@Google đã chuyển mình từ một kẻ tụt hậu trong AI thành một nhà lãnh đạo AI với mức tăng khoảng 2,5 lần trong tỷ lệ người trả lời đang sử dụng hoặc xem xét loạt mô hình Gemini. Một yếu tố chính thúc đẩy điều này là Google đã đạt được những bước tiến đáng kể trong trí tuệ: Gemini 2.5 Pro hiện đứng ở vị trí #3 trong Chỉ số Phân tích Trí tuệ Nhân tạo của chúng tôi, so với việc tụt lại phía sau OpenAI và Anthropic vào đầu năm 2024.
@deepseek_ai trong nửa đầu năm 2024 chỉ mới phát hành DeepSeek 67B, một mô hình mà đã thấy sự chấp nhận hạn chế và không đạt yêu cầu so với Llama 3 70B. DeepSeek lần đầu tiên thấy một số sự tiếp nhận vào cuối năm 2024 với việc phát hành mô hình V2 của họ, và sau đó đã thấy sự chấp nhận nhanh chóng vào đầu năm 2025 với các mô hình V3 và R1 của họ đã đưa họ lên vị trí lãnh đạo trong số các mô hình trọng số mở.
@xai đã phát hành mô hình đầu tiên Grok-1 vào giữa nửa đầu năm 2024 và kể từ đó đã nhanh chóng leo lên vị trí lãnh đạo trí tuệ trên tất cả các mô hình với các lần phát hành liên tiếp, culminated in việc ra mắt Grok 4 vào tuần trước.
Nguồn: Khảo sát Chấp nhận AI Phân tích Nhân tạo nửa đầu năm 2025 (báo cáo có sẵn trên trang web của Phân tích Nhân tạo)

388,83K
Nhà cung cấp Kimi K2: Groq đang phục vụ Kimi K2 với tốc độ >400 token/s, nhanh gấp 40 lần so với API của Moonshot.
Chúc mừng một số nhà cung cấp đã nhanh chóng ra mắt API cho Kimi K2, bao gồm @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra, và tất nhiên là @Kimi_Moonshot. Điều này thật ấn tượng khi xem xét kích thước của mô hình với tổng cộng 1 triệu tham số.
Groq nổi bật với tốc độ nhanh chóng. DeepInfra, Novita và Baseten nổi bật với mức giá của họ, là những nhà cung cấp duy nhất có mức giá tương tự hoặc rẻ hơn so với API của Moonshot.
Xem bên dưới để so sánh thêm giữa các nhà cung cấp. Chúng tôi kỳ vọng sẽ có sự gia tăng nhanh chóng về tốc độ ở một số nhà cung cấp khi các đội tối ưu hóa cho mô hình K2 - các số liệu của chúng tôi bên dưới cho thấy tốc độ trung bình trong 72 giờ qua nhưng chúng tôi đã thấy DeepInfra tăng lên 62 token/s trong các phép đo hôm nay.

52,05K
Trong khi Kimi k2 của Moonshot AI là mô hình không lý luận với trọng số mở hàng đầu trong Chỉ số Trí tuệ Phân tích Nhân tạo, nó xuất ra ~3 lần số token so với các mô hình không lý luận khác, làm mờ ranh giới giữa lý luận và không lý luận.
Kimi k2 là mô hình trọng số mở lớn nhất cho đến nay - 1T tham số tổng cộng với 32B hoạt động (điều này yêu cầu một bộ nhớ khổng lồ 1TB ở FP8 gốc để giữ các trọng số). Chúng tôi có k2 ở vị trí 57 trong Chỉ số Trí tuệ Phân tích Nhân tạo, một điểm số ấn tượng đưa nó vượt qua các mô hình như GPT-4.1 và DeepSeek V3, nhưng đứng sau các mô hình lý luận hàng đầu.
Cho đến nay, đã có sự phân biệt rõ ràng giữa mô hình lý luận và mô hình không lý luận trong các đánh giá của chúng tôi - được xác định không chỉ bởi việc mô hình có sử dụng thẻ <reasoning> hay không, mà chủ yếu bởi việc sử dụng token. Số lượng token trung bình được sử dụng để trả lời tất cả các đánh giá trong Chỉ số Trí tuệ Phân tích Nhân tạo cao hơn ~10 lần cho các mô hình lý luận so với các mô hình không lý luận.
Kimi k2 của @Kimi_Moonshot sử dụng ~3 lần số token mà mô hình không lý luận trung bình sử dụng. Việc sử dụng token của nó chỉ thấp hơn 30% so với Claude 4 Sonnet và Opus khi chạy ở chế độ suy nghĩ mở rộng ngân sách tối đa, và gần gấp ba lần việc sử dụng token của cả Claude 4 Sonnet và Opus khi tắt lý luận.
Do đó, chúng tôi khuyến nghị rằng Kimi k2 nên được so sánh với Claude 4 Sonnet và Opus trong các chế độ suy nghĩ mở rộng ngân sách tối đa của họ, không phải với các điểm số không lý luận cho các mô hình Claude 4.
Kimi k2 có sẵn trên API của bên thứ nhất của @Kimi_Moonshot cũng như @FireworksAI_HQ, @togethercompute, @novita_labs, và @parasail_io.
Xem bên dưới và trên Artificial Analysis để biết thêm phân tích 👇



60,39K
API Nghiên cứu Sâu mới của OpenAI có giá lên tới ~$30 cho mỗi lần gọi API! Những điểm cuối API Nghiên cứu Sâu mới này có thể là cách nhanh nhất để tiêu tiền.
Trong 10 truy vấn thử nghiệm nghiên cứu sâu của chúng tôi, chúng tôi đã chi $100 cho o3 và $9.18 cho o4-mini. Làm thế nào mà chi phí lại lớn như vậy? Giá cao và hàng triệu token.
Những điểm cuối này là các phiên bản của o3 và o4-mini đã được RL cho các nhiệm vụ nghiên cứu sâu. Việc có sẵn qua API cho phép chúng được sử dụng với cả công cụ tìm kiếm web của OpenAI và các nguồn dữ liệu tùy chỉnh qua các máy chủ MCP từ xa.
Giá của o4-mini-nghiên cứu-sâu thấp hơn 5 lần so với giá của o3-nghiên cứu-sâu. Trong các truy vấn thử nghiệm của chúng tôi, o4-mini cũng dường như sử dụng ít token hơn - tổng chi phí của nó rẻ hơn hơn 10 lần trong tổng số 10 truy vấn thử nghiệm của chúng tôi.
Giá cả:
➤ o3-nghiên cứu-sâu có giá $10 /M đầu vào ($2.50 đầu vào đã lưu), $40 /M đầu ra
➤ o4-mini-nghiên cứu-sâu có giá $2 /M đầu vào ($0.5 đầu vào đã lưu), $8 /M đầu ra
Những điểm cuối này đều đắt hơn nhiều so với các điểm cuối tiêu chuẩn o3 và o4-mini của OpenAI - những điểm đó có giá:
➤ o3: $2 /M ($0.5 đã lưu) đầu vào, $8 /M đầu ra cho o3
➤ o4-mini: $1.1 /M (0.275 đã lưu) đầu vào, $4.4 /M đầu ra

37,04K
Black Forest Labs sẽ tạo ra một làn sóng khởi nghiệp mới với mô hình chỉnh sửa hình ảnh open weights được phát hành hôm nay
- Trải nghiệm thử đồ ảo sẽ tốt hơn gấp 10 lần nhưng đó chỉ là khởi đầu. Chúng ta cũng sẽ thấy những trải nghiệm mới khi mọi người sáng tạo với những mô hình này (mở rộng hơn nhiều so với các bộ lọc của Snapchat & Instagram)
- Mô hình chỉ có 12B và có thể được tinh chỉnh trên phần cứng tiêu dùng
- Các nền tảng như @FAL cung cấp hỗ trợ đào tạo LoRA đầy đủ
Cảm ơn @FAL vì hình ảnh bên dưới, họ có một bài viết tuyệt vời về dịch vụ tinh chỉnh của họ (liên kết bên dưới)

34,13K
Chỉnh sửa hình ảnh giờ đây đã trở thành mã nguồn mở! Black Forest Labs vừa phát hành một mô hình chỉnh sửa hình ảnh với trọng số mở, có hiệu suất so sánh được với các mô hình độc quyền.
@bfl_ml đã phát hành FLUX.1 Kontext [dev], một mô hình chỉnh sửa hình ảnh 12B. Chúng tôi đã được cấp quyền truy cập trước khi phát hành và đã thử nghiệm nó trong Arena Phân Tích Hình Ảnh Nhân Tạo của chúng tôi.
Chúng tôi đã xác minh độc lập rằng nó cung cấp hiệu suất tương đương hoặc vượt trội so với một số mô hình độc quyền, bao gồm Gemini 2.0 Flash của Google và Bagel của ByteDance. FLUX.1 Kontext [dev] chỉ thua kém các mô hình độc quyền của Black Forest Labs và GPT-4o của OpenAI.
Các API được lưu trữ cũng có sẵn trên @FAL, @replicate, @togethercompute.
Liên kết bên dưới đến các trọng số trên HuggingFace 👐

24,57K
Hàng đầu
Thứ hạng
Yêu thích
Onchain thịnh hành
Thịnh hành trên X
Ví funding hàng đầu gần đây
Được chú ý nhất