Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analisis independen model AI dan penyedia hosting - pilih model dan penyedia API terbaik untuk kasus penggunaan Anda
Cerebras telah menunjukkan kemampuannya untuk menampung MoE besar dengan kecepatan yang sangat tinggi minggu ini, meluncurkan titik akhir Qwen3 235B 2507 dan Qwen3 Coder 480B pada >1.500 token keluaran
➤ @CerebrasSystems sekarang menawarkan titik akhir untuk Qwen3 235B 2507 Penalaran & Non-penalaran. Kedua model memiliki parameter total 235B dengan 22B aktif.
➤ Qwen 3 235B 2507 Penalaran menawarkan kecerdasan yang sebanding dengan o4-mini (tinggi) & DeepSeek R1 0528. Varian Non-penalaran menawarkan kecerdasan yang sebanding dengan Kimi K2 dan jauh di atas GPT-4.1 dan Llama 4 Maverick.
➤ Qwen3 Coder 480B memiliki total parameter 480B dengan 35B aktif. Model ini sangat kuat untuk pengkodean agen dan dapat digunakan dalam berbagai alat agen pengkodean, termasuk CLI Qwen3-Coder.
Peluncuran Cerebras mewakili pertama kalinya tingkat kecerdasan ini dapat diakses pada kecepatan keluaran ini dan memiliki potensi untuk membuka kasus penggunaan baru - seperti menggunakan model penalaran untuk setiap langkah agen tanpa harus menunggu beberapa menit.

23,61K
🇰🇷 LG baru-baru ini meluncurkan EXAONE 4.0 32B - mendapat skor 62 pada Indeks Kecerdasan Analisis Buatan, skor tertinggi untuk model 32B
EXAONE 4.0 @LG_AI_Research dirilis dalam dua varian: model penalaran hibrida 32B yang kami laporkan hasil pembandingan di sini, dan model 1.2B yang lebih kecil yang dirancang untuk aplikasi di perangkat yang belum kami tolok ukur.
Bersamaan dengan rilis Solar Pro 2 Upstage baru-baru ini, sangat menarik untuk melihat laboratorium AI Korea bergabung dengan AS dan China di dekat puncak tangga lagu intelijen.
Hasil utama:
➤ 🧠 EXAONE 4.0 32B (Penalaran): Dalam mode penalaran, EXAONE 4.0 mendapat skor 62 pada Indeks Kecerdasan Analisis Buatan. Ini cocok dengan Claude 4 Opus dan Llama Nemotron Super 49B v1.5 baru dari NVIDIA, dan hanya tertinggal 1 poin di belakang Gemini 2.5 Flash
➤ ⚡ EXAONE 4.0 32B (Non-Penalaran): Dalam mode non-penalaran, EXAONE 4.0 mendapat skor 51 pada Indeks Kecerdasan Analisis Buatan. Ini cocok dengan Llama 4 Maverick dalam kecerdasan meskipun hanya memiliki parameter total ~1/4 (meskipun memiliki ~2x parameter aktif)
➤ ⚙️ Token keluaran dan verbositas: Dalam mode penalaran, EXAONE 4.0 menggunakan 100 juta token keluaran untuk Indeks Kecerdasan Analisis Buatan. Ini lebih tinggi daripada beberapa model perbatasan lainnya, tetapi sejalan dengan tren terbaru model penalaran yang menggunakan lebih banyak token keluaran untuk 'berpikir lebih banyak' - mirip dengan Llama Nemotron Super 49B v1.5, Grok 4, dan Qwen3 235B 2507 Reasoning. Dalam mode non-penalaran, EXAONE 4.0 menggunakan 15 juta token - tinggi untuk non-penalaran, tetapi tidak setinggi 30M Kimi K2.
Rincian kunci:
➤ Penalaran hibrida: Model ini menawarkan opsional antara mode 'penalaran' dan mode 'non-penalaran'
➤ Ketersediaan: Dihosting oleh @friendliai saat ini, dan dengan harga bersaing (terutama dibandingkan dengan opsi berpemilik) oleh FriendliAI dengan harga $1 per 1 juta token input dan output
➤ Bobot terbuka: EXAONE 4.0 adalah model bobot terbuka yang tersedia di bawah Perjanjian Lisensi Model EXAONE AI 1.2. Lisensi membatasi penggunaan komersial.
➤ Multimodalitas: Input dan output teks saja
➤ Jendela konteks: 131k token
➤ Parameter: Parameter aktif dan total 32B, tersedia dalam presisi 16bit dan 8bit (berarti model dapat dijalankan pada satu chip H100 dengan presisi penuh)

41,35K
Mengumumkan Papan Peringkat Arena Musik Analisis Buatan: dengan >5 ribu suara, Suno v4.5 adalah model Generasi Musik terkemuka diikuti oleh FUZZ-1.1 Pro Riffusion.
Lyria 2 Google menempati posisi ketiga di papan peringkat Instrumental kami, dan Allegro v1.5 Udio menempati posisi ketiga di papan peringkat Vokal kami.
Papan Peringkat Instrumental adalah sebagai berikut:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Audio Stabil 2.0
@metaai MusicGen
Peringkat didasarkan pada suara komunitas di berbagai genre dan petunjuk. Ingin melihat prompt Anda ditampilkan? Anda dapat mengirimkan petunjuk di arena hari ini.
👇 Lihat di bawah untuk Papan Peringkat Vokal dan tautan untuk berpartisipasi!

21,96K
Perubahan permintaan model 2024 hingga 2025: Google (+49 poin), DeepSeek (+53 poin) dan xAI (+31 poin) telah mencapai peningkatan besar dalam pangsa permintaan selama setahun terakhir
@Google telah bertransisi dari tertinggal AI menjadi pemimpin AI dengan peningkatan ~2,5x dalam proporsi responden yang menggunakan atau mempertimbangkan seri model Gemini. Pendorong utama dari ini adalah Google membuat keuntungan yang signifikan dalam kecerdasan: Gemini 2.5 Pro sekarang duduk di #3 dalam Indeks Kecerdasan Analisis Buatan kami, dibandingkan dengan tertinggal secara signifikan di belakang OpenAI dan Anthropic pada awal 2024.
@deepseek_ai pada H1 2024 hanya merilis DeepSeek 67B, model yang memiliki adopsi terbatas dan berkinerja buruk Llama 3 70B. DeepSeek pertama kali melihat beberapa penyerapan pada akhir 2024 dengan rilis model V2 mereka, dan kemudian melihat adopsi cepat pada awal 2025 dengan model V3 dan R1 mereka yang telah membawa mereka ke kepemimpinan di antara model bobot terbuka.
@xai merilis model pertamanya Grok-1 pada pertengahan H1 2024 dan sejak itu dengan cepat naik ke kepemimpinan intelijen di semua model dengan rilis berturut-turut, yang berpuncak pada peluncuran Grok 4 minggu lalu.
Sumber: Survei Adopsi AI Analisis Buatan H1 2025 (laporan tersedia di situs web Analisis Buatan)

388,83K
Penyedia Kimi K2: Groq melayani Kimi K2 dengan >400 token keluaran, 40X lebih cepat dari API pihak pertama Moonshot
Selamat kepada sejumlah penyedia karena cepat meluncurkan API untuk Kimi K2, termasuk @GroqInc , @basetenco , @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra, dan tentu saja @Kimi_Moonshot. Ini mengesankan mengingat ukuran model pada total parameter 1 triliun.
Groq menonjol karena kecepatan yang sangat cepat. DeepInfra, Novita, dan Baseten menonjol karena harga mereka, menjadi satu-satunya penyedia yang menetapkan harga yang sama atau lebih murah daripada API pihak pertama Moonshot.
Lihat di bawah ini untuk perbandingan lebih lanjut antara penyedia. Kami mengharapkan peningkatan kecepatan yang cepat di beberapa penyedia karena tim mengoptimalkan model K2 - angka kami di bawah ini menunjukkan kecepatan rata-rata selama 72 jam terakhir, tetapi kami sudah melihat DeepInfra melonjak hingga 62 token/s dalam pengukuran hari ini

52,06K
Sementara Kimi k2 Moonshot AI adalah model non-penalaran bobot terbuka terkemuka dalam Indeks Kecerdasan Analisis Buatan, ia menghasilkan ~3x lebih banyak token daripada model non-penalaran lainnya, mengaburkan batas antara penalaran & non-penalaran
Kimi k2 adalah model bobot terbuka utama terbesar - parameter total 1T dengan 32B aktif (ini membutuhkan memori 1TB yang besar pada FP8 asli untuk menahan bobot). Kami memiliki k2 di 57 dalam Indeks Kecerdasan Analisis Buatan, skor mengesankan yang menempatkannya di atas model seperti GPT-4.1 dan DeepSeek V3, tetapi di belakang model penalaran terkemuka.
Sampai sekarang, ada perbedaan yang jelas antara model penalaran dan model non-penalaran dalam eval kami - ditentukan tidak hanya oleh apakah model menggunakan <reasoning> tag, tetapi terutama oleh penggunaan token. Jumlah rata-rata token yang digunakan untuk menjawab semua eval dalam Indeks Kecerdasan Analisis Buatan adalah ~10x lebih tinggi untuk model penalaran daripada untuk model non-penalaran.
Kimi k2 @Kimi_Moonshot menggunakan ~3x jumlah token yang digunakan model non-penalaran median. Penggunaan tokennya hanya hingga 30% lebih rendah dari Claude 4 Sonnet dan Opus ketika dijalankan dalam mode pemikiran yang diperluas anggaran maksimum, dan hampir tiga kali lipat penggunaan token Claude 4 Sonnet dan Opus dengan penalaran dimatikan.
Oleh karena itu, kami merekomendasikan agar Kimi k2 dibandingkan dengan Claude 4 Sonnet dan Opus dalam mode berpikir yang diperluas anggaran maksimum mereka, bukan dengan skor non-penalaran untuk model Claude 4.
Kimi k2 tersedia di API pihak pertama @Kimi_Moonshot serta @FireworksAI_HQ, @togethercompute, @novita_labs, dan @parasail_io.
Lihat di bawah dan di Analisis Buatan untuk analisis 👇 lebih lanjut



60,4K
API Penelitian Mendalam baru OpenAI berharga hingga ~$30 per panggilan API! Titik akhir Deep Research API baru ini mungkin merupakan cara tercepat baru untuk membelanjakan uang
Di 10 kueri pengujian penelitian mendalam kami, kami menghabiskan $100 untuk o3 dan $9,18 untuk o4-mini. Bagaimana biayanya menjadi begitu besar? Harga tinggi dan jutaan token.
Titik akhir ini adalah versi o3 dan o4-mini yang telah di-RL untuk tugas-tugas penelitian mendalam. Ketersediaan melalui API memungkinkannya digunakan dengan alat pencarian web OpenAI dan sumber data khusus melalui server MCP jarak jauh.
Harga O4-mini-Deep-Research 5x lebih rendah dari harga O3-Deep-Research. Dalam kueri pengujian kami, o4-mini juga tampaknya menggunakan lebih sedikit token - total ini datang lebih dari 10x lebih murah di 10 kueri pengujian kami.
Harga:
➤ o3-deep-research dihargai $10 /M input ($2.50 input cache), $40 /M output
➤ o4-mini-deep-research dihargai $2 /M input ($0.5 input cache), $8 /M output
Titik akhir ini keduanya jauh lebih mahal daripada titik akhir o3 dan o4-mini standar OpenAI - itu di:
➤ o3: input $2 /M ($0,5 di-cache), $8 /M output untuk o3
➤ o4-mini: input $1.1 /M (0.275 cache), output $4.4 /M

37,05K
Black Forest Labs akan menciptakan banjir startup baru dengan model pengeditan gambar bobot terbuka mereka yang dirilis hari ini
- Uji coba virtual akan menjadi 10X lebih baik tetapi itu baru permulaan. Kita juga akan melihat pengalaman baru saat orang-orang menjadi kreatif dengan model-model ini (jauh lebih luas daripada filter Snapchat & Instagram)
- Modelnya hanya 12B dan dapat disetel dengan baik pada perangkat keras konsumen
- Platform seperti @FAL menawarkan dukungan pelatihan LoRA penuh
Kredit untuk @FAL untuk gambar di bawah ini, mereka memiliki tulisan yang bagus tentang penawaran penyempurnaan mereka (tautan di bawah)

34,14K
Pengeditan gambar sekarang open source! Black Forest Labs baru saja merilis model pengeditan gambar bobot terbuka yang sebanding dengan kinerja yang sebanding dengan model berpemilik
@bfl_ml telah merilis FLUX.1 Kontext [dev], model pengeditan gambar 12B. Kami diberi akses pra-rilis dan telah mengujinya di Arena Gambar Analisis Buatan kami.
Kami telah memverifikasi secara independen bahwa ia menawarkan kinerja yang sebanding atau unggul dengan sejumlah model berpemilik termasuk Gemini 2.0 Flash Google dan Bagel ByteDance. FLUX.1 Kontext [dev] hanya mengikuti model milik Black Forest Labs sendiri dan GPT-4o OpenAI.
API yang dihosting juga tersedia di @FAL, @replicate, @togethercompute
Tautan di bawah ini ke bobot di HuggingFace 👐

24,58K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal