Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Onafhankelijke analyse van AI-modellen en hostingproviders - kies het beste model en de beste API-provider voor uw use-case
Cerebras heeft deze week zijn vermogen gedemonstreerd om grote MoE's met zeer hoge snelheden te hosten, met de lancering van Qwen3 235B 2507 en Qwen3 Coder 480B eindpunten met >1.500 output tokens/s
➤ @CerebrasSystems biedt nu eindpunten voor zowel Qwen3 235B 2507 Redeneren & Niet-redeneren. Beide modellen hebben 235B totale parameters met 22B actief.
➤ Qwen 3 235B 2507 Redeneren biedt intelligentie vergelijkbaar met o4-mini (hoog) & DeepSeek R1 0528. De Niet-redeneren variant biedt intelligentie vergelijkbaar met Kimi K2 en ver boven GPT-4.1 en Llama 4 Maverick.
➤ Qwen3 Coder 480B heeft 480B totale parameters met 35B actief. Dit model is bijzonder sterk voor agentic coding en kan worden gebruikt in een verscheidenheid aan coding agent tools, waaronder de Qwen3-Coder CLI.
De lanceringen van Cerebras vertegenwoordigen de eerste keer dat dit niveau van intelligentie toegankelijk is geweest bij deze output snelheden en hebben het potentieel om nieuwe gebruikstoepassingen te ontgrendelen - zoals het gebruik van een redeneringsmodel voor elke stap van een agent zonder minuten te hoeven wachten.

23,61K
🇰🇷 LG heeft onlangs de EXAONE 4.0 32B gelanceerd - het scoort 62 op de Artificial Analysis Intelligence Index, de hoogste score tot nu toe voor een 32B-model.
@LG_AI_Research's EXAONE 4.0 is uitgebracht in twee varianten: het 32B hybride redeneermodel waar we hier benchmarkingresultaten voor rapporteren, en een kleiner 1.2B-model dat is ontworpen voor toepassingen op apparaten en dat we nog niet hebben gebenchmarkt.
Naast de recente release van Upstage's Solar Pro 2 is het spannend om te zien dat Koreaanse AI-laboratoria zich bij de VS en China voegen aan de top van de intelligentie-lijsten.
Belangrijke resultaten:
➤ 🧠 EXAONE 4.0 32B (Redeneren): In de redeneerstand scoort EXAONE 4.0 62 op de Artificial Analysis Intelligence Index. Dit komt overeen met Claude 4 Opus en de nieuwe Llama Nemotron Super 49B v1.5 van NVIDIA, en staat slechts 1 punt achter Gemini 2.5 Flash.
➤ ⚡ EXAONE 4.0 32B (Niet-Redeneren): In de niet-redeneerstand scoort EXAONE 4.0 51 op de Artificial Analysis Intelligence Index. Het komt overeen met Llama 4 Maverick in intelligentie, ondanks dat het slechts ~1/4 van het totale aantal parameters heeft (hoewel het ~2x het actieve aantal parameters heeft).
➤ ⚙️ Outputtokens en volledigheid: In de redeneerstand gebruikte EXAONE 4.0 100M outputtokens voor de Artificial Analysis Intelligence Index. Dit is hoger dan sommige andere grensmodellen, maar komt overeen met recente trends waarbij redeneermodellen meer outputtokens gebruiken om 'meer na te denken' - vergelijkbaar met Llama Nemotron Super 49B v1.5, Grok 4 en Qwen3 235B 2507 Redeneren. In de niet-redeneerstand gebruikte EXAONE 4.0 15M tokens - hoog voor een niet-redeneerder, maar niet zo hoog als Kimi K2’s 30M.
Belangrijke details:
➤ Hybride redeneren: Het model biedt de mogelijkheid om te kiezen tussen 'redeneren' modus en 'niet-redeneren' modus.
➤ Beschikbaarheid: Momenteel gehost door @friendliai, en competitief geprijsd (vooral vergeleken met propriëtaire opties) door FriendliAI voor $1 per 1M input- en outputtokens.
➤ Open gewichten: EXAONE 4.0 is een model met open gewichten beschikbaar onder de EXAONE AI Model License Agreement 1.2. De licentie beperkt commercieel gebruik.
➤ Multimodaliteit: Alleen tekstinvoer en -uitvoer.
➤ Contextvenster: 131k tokens.
➤ Parameters: 32B actieve en totale parameters, beschikbaar in 16bit en 8bit precisie (dit betekent dat het model kan worden uitgevoerd op een enkele H100-chip in volledige precisie).

41,34K
Aankondiging van de Artificial Analysis Music Arena Ranglijst: met >5k stemmen is Suno v4.5 het leidende Music Generation model, gevolgd door Riffusion’s FUZZ-1.1 Pro.
Google’s Lyria 2 staat derde in onze Instrumental ranglijst, en Udio’s v1.5 Allegro staat derde in onze Vocals ranglijst.
De Instrumental Ranglijst is als volgt:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stable Audio 2.0
@metaai MusicGen
De ranglijsten zijn gebaseerd op stemmen van de gemeenschap over een diverse reeks genres en prompts. Wil je jouw prompt zien verschijnen? Je kunt vandaag prompts indienen in de arena.
👇 Zie hieronder de Vocals Ranglijst en de link om deel te nemen!

21,95K
Model vraagverandering 2024 tot 2025: Google (+49pts), DeepSeek (+53pts) en xAI (+31pts) hebben enorme winsten in vraagdeel behaald in het afgelopen jaar
@Google is overgestapt van een AI achterblijver naar een AI leider met een ~2,5x toename in het percentage respondenten dat het Gemini-modelseries gebruikt of overweegt. Een belangrijke drijfveer hiervoor is dat Google aanzienlijke vooruitgang heeft geboekt in intelligentie: Gemini 2.5 Pro staat nu op #3 in onze Artificial Analysis Intelligence Index, vergeleken met een aanzienlijke achterstand op OpenAI en Anthropic begin 2024.
@deepseek_ai had in H1 2024 alleen DeepSeek 67B uitgebracht, een model dat beperkte adoptie zag en ondermaats presteerde ten opzichte van Llama 3 70B. DeepSeek zag voor het eerst enige acceptatie eind 2024 met de releases van hun V2-model, en zag vervolgens een snelle adoptie begin 2025 met hun V3- en R1-modellen die hen naar leiderschap onder open gewichten-modellen hebben gebracht.
@xai bracht zijn eerste model Grok-1 uit in het midden van H1 2024 en is sindsdien snel gestegen naar intelligentieleiderschap over alle modellen met opeenvolgende releases, culminerend in de lancering van Grok 4 van vorige week.
Bron: Artificial Analysis AI Adoption Survey H1 2025 (rapport beschikbaar op de website van Artificial Analysis)

388,83K
Kimi K2 Providers: Groq levert Kimi K2 met >400 output tokens/s, 40X sneller dan de first-party API van Moonshot.
Gefeliciteerd aan een aantal providers die snel API's voor Kimi K2 hebben gelanceerd, waaronder @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra, en natuurlijk @Kimi_Moonshot. Dit is indrukwekkend gezien de grootte van het model met 1 triljoen totale parameters.
Groq valt op door zijn razendsnelle snelheid. DeepInfra, Novita en Baseten vallen op door hun prijsstelling, aangezien zij de enige providers zijn die vergelijkbaar of goedkoper prijzen dan de first-party API van Moonshot.
Zie hieronder voor verdere vergelijkingen tussen de providers. We verwachten snelle stijgingen in snelheid bij sommige providers naarmate teams optimaliseren voor het K2-model - onze cijfers hieronder tonen mediane snelheden over de afgelopen 72 uur, maar we zien al dat DeepInfra vandaag is gestegen naar 62 tokens/s in de metingen.

52,05K
Hoewel Kimi k2 van Moonshot AI het leidende open gewichten niet-redeneringsmodel is in de Artificial Analysis Intelligence Index, genereert het ~3x meer tokens dan andere niet-redeneringsmodellen, waardoor de lijnen tussen redeneren en niet-redeneren vervagen.
Kimi k2 is het grootste belangrijke open gewichtenmodel tot nu toe - 1T totale parameters met 32B actief (dit vereist een enorme 1TB aan geheugen bij native FP8 om de gewichten vast te houden). We hebben k2 op 57 in de Artificial Analysis Intelligence Index, een indrukwekkende score die het boven modellen zoals GPT-4.1 en DeepSeek V3 plaatst, maar achter de leidende redeneringsmodellen.
Tot nu toe is er een duidelijke onderscheid geweest tussen redeneringsmodellen en niet-redeneringsmodellen in onze evaluaties - gedefinieerd niet alleen door of het model <reasoning> tags gebruikt, maar voornamelijk door het tokengebruik. Het mediaan aantal tokens dat wordt gebruikt om alle evaluaties in de Artificial Analysis Intelligence Index te beantwoorden, is ~10x hoger voor redeneringsmodellen dan voor niet-redeneringsmodellen.
@Kimi_Moonshot's Kimi k2 gebruikt ~3x het aantal tokens dat het mediaan niet-redeneringsmodel gebruikt. Het tokengebruik is slechts tot 30% lager dan Claude 4 Sonnet en Opus wanneer ze in hun maximale budget uitgebreide denkmodus draaien, en is bijna drie keer het tokengebruik van zowel Claude 4 Sonnet als Opus met redeneren uitgeschakeld.
Daarom raden we aan dat Kimi k2 wordt vergeleken met Claude 4 Sonnet en Opus in hun maximale budget uitgebreide denkmodi, niet met de niet-redeneringsscores voor de Claude 4-modellen.
Kimi k2 is beschikbaar op de eerste partij API van @Kimi_Moonshot evenals @FireworksAI_HQ, @togethercompute, @novita_labs, en @parasail_io.
Zie hieronder en op Artificial Analysis voor verdere analyse 👇



60,39K
De nieuwe Deep Research API van OpenAI kost tot ~$30 per API-aanroep! Deze nieuwe Deep Research API-eindpunten zouden wel eens de snelste manier kunnen zijn om geld uit te geven.
Bij onze 10 deep research testqueries hebben we $100 uitgegeven aan o3 en $9,18 aan o4-mini. Hoe komen de kosten zo hoog? Hoge prijzen en miljoenen tokens.
Deze eindpunten zijn versies van o3 en o4-mini die zijn RL'd voor deep research-taken. Beschikbaarheid via API maakt het mogelijk om ze te gebruiken met zowel OpenAI's webzoektool als met aangepaste gegevensbronnen via externe MCP-servers.
o4-mini-deep-research-prijzen zijn 5x lager dan o3-deep-research-prijzen. In onze testqueries lijkt o4-mini ook minder tokens te gebruiken - het was in totaal meer dan 10x goedkoper over onze 10 testqueries.
Prijzen:
➤ o3-deep-research kost $10 /M input ($2,50 gecachte input), $40 /M output
➤ o4-mini-deep-research kost $2 /M input ($0,5 gecachte input), $8 /M output
Deze eindpunten zijn beide aanzienlijk duurder dan OpenAI's standaard o3 en o4-mini eindpunten - die zijn:
➤ o3: $2 /M ($0,5 gecachte) input, $8 /M output voor o3
➤ o4-mini: $1,1 /M (0,275 gecachte) input, $4,4 /M output

37,04K
Black Forest Labs gaat een vloed aan nieuwe startups creëren met hun open gewichten beeldbewerkingsmodel dat vandaag is uitgebracht.
- Virtueel passen zal 10X beter worden, maar dat is pas het begin. We zullen ook nieuwe ervaringen zien terwijl mensen creatief aan de slag gaan met deze modellen (veel uitgebreider dan Snapchat- en Instagram-filters).
- Het model is slechts 12B en kan worden verfijnd op consumentenhardware.
- Platforms zoals @FAL bieden volledige LoRA-trainingsondersteuning.
Credits aan @FAL voor de afbeelding hieronder, zij hebben een geweldige uitleg van hun verfijningsaanbod (link hieronder).

34,13K
Afbeeldingsbewerking is nu open source! Black Forest Labs heeft zojuist een open gewichten afbeeldingsbewerkingsmodel uitgebracht dat vergelijkbaar is in prestaties met propriëtaire modellen.
@bfl_ml heeft FLUX.1 Kontext [dev] uitgebracht, een 12B afbeeldingsbewerkingsmodel. We hebben pre-release toegang gekregen en hebben het getest in onze Artificial Analysis Image Arena.
We hebben onafhankelijk geverifieerd dat het vergelijkbare of superieure prestaties biedt ten opzichte van een aantal propriëtaire modellen, waaronder Google's Gemini 2.0 Flash en ByteDance's Bagel. FLUX.1 Kontext [dev] blijft alleen achter bij de eigen propriëtaire modellen van Black Forest Labs en OpenAI's GPT-4o.
Gehoste API's zijn ook beschikbaar op @FAL, @replicate, @togethercompute.
Link hieronder naar de gewichten op HuggingFace 👐

24,58K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste