Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Oberoende analys av AI-modeller och hostingleverantörer - välj den bästa modellen och API-leverantören för ditt användningsfall
Cerebras har demonstrerat sin förmåga att vara värd för stora MoE-enheter med mycket höga hastigheter den här veckan och lanserat Qwen3 235B 2507- och Qwen3 Coder 480B-slutpunkter på >1 500 output-tokens/s
➤ @CerebrasSystems erbjuder nu slutpunkter för både Qwen3 235B 2507 Reasoning och Non-reasoning. Båda modellerna har totalt 235B parametrar med 22B aktiva.
➤ Qwen 3 235B 2507 Reasoning erbjuder intelligens jämförbar med o4-mini (hög) och DeepSeek R1 0528. Den icke-resonerande varianten erbjuder intelligens som är jämförbar med Kimi K2 och långt över GPT-4.1 och Llama 4 Maverick.
➤ Qwen3 Coder 480B har 480B totala parametrar med 35B aktiv. Den här modellen är särskilt stark för agentkodning och kan användas i en mängd olika kodningsagentverktyg, inklusive Qwen3-Coder CLI.
Cerebras lanseringar representerar första gången som denna nivå av intelligens har varit tillgänglig vid dessa utgångshastigheter och har potential att låsa upp nya användningsfall - som att använda en resonemangsmodell för varje steg av en agent utan att behöva vänta minuter.

23,61K
🇰🇷 LG lanserade nyligen EXAONE 4.0 32B - den får 62 poäng på Artificial Analysis Intelligence Index, den högsta poängen för en 32B-modell hittills
@LG_AI_Research:s EXAONE 4.0 släpps i två varianter: 32B-hybridresonemangsmodellen som vi rapporterar benchmarkingresultat för här, och en mindre 1,2B-modell designad för applikationer på enheten som vi ännu inte har benchmarkat.
Vid sidan av Upstages senaste Solar Pro 2-lansering är det spännande att se koreanska AI-laboratorier ansluta sig till USA och Kina nära toppen av intelligensdiagrammen.
De viktigaste resultaten:
🧠 ➤ EXAONE 4.0 32B (resonemang): I resonemangsläge får EXAONE 4.0 62 poäng på Artificial Analysis Intelligence Index. Detta matchar Claude 4 Opus och den nya Llama Nemotron Super 49B v1.5 från NVIDIA, och ligger bara 1 poäng bakom Gemini 2.5 Flash
⚡ ➤ EXAONE 4.0 32B (Icke-resonemang): I icke-resonerande läge får EXAONE 4.0 51 på Artificial Analysis Intelligence Index. Den matchar Llama 4 Maverick i intelligens trots att den bara har ~1/4 totala parametrar (även om den har ~2x de aktiva parametrarna)
⚙️ ➤ Utdatatoken och utförlighet: I resonemangsläge använde EXAONE 4.0 100 miljoner utdatatoken för Artificial Analysis Intelligence Index. Detta är högre än vissa andra frontier-modeller, men ligger i linje med de senaste trenderna med resonemangsmodeller som använder fler output-tokens för att "tänka mer" - liknande Llama Nemotron Super 49B v1.5, Grok 4 och Qwen3 235B 2507 Reasoning. I icke-resonerande läge använde EXAONE 4.0 15 miljoner tokens - högt för en icke-resonerare, men inte lika högt som Kimi K2:s 30M.
Viktiga detaljer:
➤ Hybridresonemang: Modellen erbjuder valmöjligheter mellan "resonemangsläge" och "icke-resonemangsläge"
➤ Tillgänglighet: Värd för @friendliai för närvarande och konkurrenskraftigt prissatt (särskilt jämfört med proprietära alternativ) av FriendliAI till $1 per 1M in- och utdatatokens
➤ Öppna vikter: EXAONE 4.0 är en modell med öppna vikter som är tillgänglig under EXAONE AI Model License Agreement 1.2. Licensen begränsar kommersiell användning.
➤ Multimodalitet: In- och utmatning av endast text
➤ Kontextfönster: 131k tokens
➤ Parametrar: 32B aktiva och totala parametrar, tillgängliga i 16-bitars och 8-bitars precision (innebär att modellen kan köras på ett enda H100-chip med full precision)

41,35K
Vi presenterar Artificial Analysis Music Arena Leaderboard: med >5k röster är Suno v4.5 den ledande Music Generation-modellen följt av Riffusions FUZZ-1.1 Pro.
Googles Lyria 2 placerar sig på tredje plats på vår Instrumental-topplista och Udios v1.5 Allegro placerar sig på tredje plats på vår Vocals-topplista.
Den instrumentala topplistan ser ut som följer:
🥇 @SunoMusic v4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stabilt ljud 2.0
@metaai MusicGen
Rankningar baseras på communityomröstningar inom en mängd olika genrer och uppmaningar. Vill du se din prompt presenterad? Du kan skicka in uppmaningar i arenan redan idag.
👇 Se nedan för Vocals Leaderboard och länk för att delta!

21,96K
Förändring av modellefterfrågan 2024 till 2025: Google (+49 poäng), DeepSeek (+53 poäng) och xAI (+31 poäng) har uppnått enorma ökningar av efterfrågeandelen under det senaste året
@Google har gått från att vara en AI-eftersläntrare till en AI-ledare med en ~2,5x ökning av andelen svarande som använder eller överväger Gemini-modellserien. En viktig drivkraft för detta har varit att Google har gjort betydande framsteg i intelligens: Gemini 2.5 Pro ligger nu på #3 i vårt Artificial Analysis Intelligence Index, jämfört med att ligga betydligt efter OpenAI och Anthropic i början av 2024.
@deepseek_ai under H1 2024 hade bara släppt DeepSeek 67B, en modell som fick begränsad användning och underpresterade Llama 3 70B. DeepSeek såg först ett visst upptag i slutet av 2024 med lanseringarna av deras V2-modell, och såg sedan ett snabbt antagande i början av 2025 med sina V3- och R1-modeller som har tagit dem till ledarskap bland modeller med öppna vikter.
@xai släppte sin första modell Grok-1 i mitten av H1 2024 och har sedan dess snabbt klättrat till intelligensledarskap för alla modeller med successiva lanseringar, vilket kulminerade i förra veckans lansering av Grok 4.
Källa: Artificial Analysis AI Adoption Survey H1 2025 (rapporten finns på webbplatsen för artificiell analys)

388,83K
Kimi K2-leverantörer: Groq betjänar Kimi K2 med > 400 outputtokens/s, 40 gånger snabbare än Moonshots förstaparts-API
Grattis till ett antal leverantörer för att de var snabba med att lansera API:er för Kimi K2, inklusive @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra och naturligtvis @Kimi_Moonshot. Detta är imponerande med tanke på modellens storlek på 1 biljon totala parametrar.
Groq utmärker sig för blixtrande snabb hastighet. DeepInfra, Novita och Baseten sticker ut för sin prissättning och är de enda leverantörerna som prissätter liknande eller billigare än Moonshots förstaparts-API.
Se nedan för ytterligare jämförelser mellan leverantörerna. Vi förväntar oss snabba ökningar av hastigheten hos vissa leverantörer när teamen optimerar för K2-modellen - våra siffror nedan visar medianhastigheter under de senaste 72 timmarna, men vi ser redan att DeepInfra hoppar upp till 62 tokens/s i dagens mätningar

52,05K
Medan Moonshot AI:s Kimi k2 är den ledande icke-resonerande modellen med öppna vikter i Artificial Analysis Intelligence Index, matar den ut ~3x fler tokens än andra icke-resonerande modeller, vilket suddar ut gränserna mellan resonemang och icke-resonemang
Kimi k2 är den största stora modellen med öppna vikter hittills - 1T totala parametrar med 32B aktiv (detta kräver massiva 1 TB minne vid inbyggd FP8 för att hålla vikterna). Vi har k2 på 57 i Artificial Analysis Intelligence Index, en imponerande poäng som placerar den över modeller som GPT-4.1 och DeepSeek V3, men bakom ledande resonemangsmodeller.
Fram tills nu har det funnits en tydlig skillnad mellan resonemangsmodeller och icke-resonerande modeller i våra utvärderingar - definierade inte bara av om modellen använder <reasoning> taggar, utan främst av tokenanvändning. Medianantalet tokens som används för att svara på alla evals i Artificial Analysis Intelligence Index är ~10 gånger högre för resonemangsmodeller än för icke-resonerande modeller.
@Kimi_Moonshot:s Kimi k2 använder ~3x antalet tokens som medianmodellen för icke-resonemang använder. Dess tokenanvändning är bara upp till 30 % lägre än Claude 4 Sonnet och Opus när de körs i sitt maximala budget för utökat tänkande, och är nästan tre gånger så stor som tokenanvändningen för både Claude 4 Sonnet och Opus med resonemang avstängt.
Vi rekommenderar därför att Kimi k2 jämförs med Claude 4 Sonnet och Opus i deras maximala budget utökade tankelägen, inte med de icke-resonerande poängen för Claude 4-modellerna.
Kimi k2 är tillgängligt på @Kimi_Moonshot:s förstaparts-API samt @FireworksAI_HQ, @togethercompute, @novita_labs och @parasail_io.
Se nedan och på Artificiell Analys för vidare analys 👇



60,39K
OpenAI:s nya Deep Research API kostar upp till ~$30 per API-anrop! Dessa nya Deep Research API-slutpunkter kan bara vara det nya snabbaste sättet att spendera pengar
I våra 10 djupa forskningstestfrågor spenderade vi $100 på o3 och $9.18 på o4-mini. Hur kan kostnaderna bli så stora? Höga priser och miljontals tokens.
Dessa slutpunkter är versioner av o3 och o4-mini som har RL:ats för djupa forskningsuppgifter. Tillgänglighet via API gör att de kan användas med både OpenAI:s webbsökverktyg och anpassade datakällor via fjärranslutna MCP-servrar.
Prissättningen för O4-Mini-Deep-Research är 5 gånger lägre än prissättningen för O3-Deep-Research. I våra testfrågor verkar o4-mini också använda färre tokens - det är över 10 gånger billigare totalt i våra 10 testfrågor.
Prissättning:
➤ o3-deep-research kostar 10 USD/M input (2,50 USD cachelagrad input), $40/M output
➤ o4-mini-deep-research kostar 2 USD/M ingång (0,5 USD cachad ingång), 8 USD/M utdata
Dessa slutpunkter är båda betydligt dyrare än OpenAI:s standard o3- och o4-mini-slutpunkter - de finns på:
➤ o3: $2 /M ($0.5 cachelagrad) ingång, $8 /M utdata för o3
➤ o4-mini: $1.1 /M (0.275 cachelagrad) ingång, $4.4 /M utgång

37,04K
Black Forest Labs kommer att skapa en flod av nya startups med sin öppna vikter bildredigeringsmodell som släpptes idag
- Virtuell prova-på kommer att bli 10 gånger bättre, men det är bara början. Vi kommer också att se nya upplevelser när människor blir kreativa med dessa modeller (mycket mer expansiva än Snapchat- och Instagram-filter)
- Modellen är endast 12B och kan finjusteras på konsumenthårdvara
- Plattformar som @FAL erbjuder fullt stöd för LoRA-utbildning
Tack till @FAL för bilden nedan, de har en bra skrivning om sitt finjusteringserbjudande (länk nedan)

34,14K
Bildredigering är nu öppen källkod! Black Forest Labs har precis släppt en bildredigeringsmodell med öppna vikter som är jämförbar i prestanda med proprietära modeller
@bfl_ml har släppt FLUX.1 Kontext [dev], en 12B bildredigeringsmodell. Vi fick tillgång till förhandsversionen och har testat den i vår Artificial Analysis Image Arena.
Vi har oberoende verifierat att den erbjuder jämförbar eller överlägsen prestanda med ett antal proprietära modeller, inklusive Googles Gemini 2.0 Flash och ByteDances Bagel. FLUX.1 Kontext [dev] följer bara Black Forest Labs egna proprietära modeller och OpenAI:s GPT-4o.
Värdbaserade API:er är också tillgängliga på @FAL, @replicate @togethercompute
Länk nedan till vikterna på HuggingFace 👐

24,58K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda