Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Uavhengig analyse av AI-modeller og vertsleverandører - velg den beste modellen og API-leverandøren for ditt bruksområde
Cerebras har demonstrert sin evne til å være vert for store MoEs med svært høye hastigheter denne uken, og lanserte Qwen3 235B 2507 og Qwen3 Coder 480B-endepunkter ved >1,500 utgangstokens/s
➤ @CerebrasSystems tilbyr nå endepunkter for både Qwen3 235B 2507 Resonnement og Ikke-resonnement. Begge modellene har 235B totale parametere med 22B aktive.
➤ Qwen 3 235B 2507 Reasoning tilbyr intelligens som kan sammenlignes med o4-mini (høy) og DeepSeek R1 0528. Den ikke-resonnerende varianten tilbyr intelligens som kan sammenlignes med Kimi K2 og godt over GPT-4.1 og Llama 4 Maverick.
➤ Qwen3 Coder 480B har 480B totale parametere med 35B aktive. Denne modellen er spesielt sterk for agentkoding og kan brukes i en rekke kodeagentverktøy, inkludert Qwen3-Coder CLI.
Cerebras' lanseringer representerer første gang dette intelligensnivået har vært tilgjengelig med disse utgangshastighetene og har potensial til å låse opp nye brukstilfeller - som å bruke en resonnementmodell for hvert trinn i en agent uten å måtte vente i minutter.

23,59K
🇰🇷 LG lanserte nylig EXAONE 4.0 32B - den scorer 62 på Artificial Analysis Intelligence Index, den høyeste poengsummen for en 32B-modell til nå
@LG_AI_Research EXAONE 4.0 er utgitt i to varianter: 32B hybrid resonneringsmodellen vi rapporterer benchmarking-resultater for her, og en mindre 1.2B-modell designet for applikasjoner på enheten som vi ikke har benchmarket ennå.
Ved siden av Upstages nylige Solar Pro 2-utgivelse, er det spennende å se koreanske AI-laboratorier slutte seg til USA og Kina nær toppen av etterretningslistene.
Viktige resultater:
➤ 🧠 EXAONE 4.0 32B (resonnement): I resonnementmodus scorer EXAONE 4.0 62 på Artificial Analysis Intelligence Index. Dette matcher Claude 4 Opus og den nye Llama Nemotron Super 49B v1.5 fra NVIDIA, og ligger bare 1 poeng bak Gemini 2.5 Flash
➤ ⚡ EXAONE 4.0 32B (ikke-resonnement): I ikke-resonnerende modus scorer EXAONE 4.0 51 på Artificial Analysis Intelligence Index. Den matcher Llama 4 Maverick i intelligens til tross for at den bare har ~1/4 totale parametere (selv om den har ~2x de aktive parameterne)
➤ ⚙️ Utgangstokens og detaljnivå: I resonneringsmodus brukte EXAONE 4.0 100M utgangstokens for Artificial Analysis Intelligence Index. Dette er høyere enn noen andre frontier-modeller, men er i tråd med nyere trender med resonneringsmodeller som bruker flere utdatatokens for å "tenke mer" - i likhet med Llama Nemotron Super 49B v1.5, Grok 4 og Qwen3 235B 2507 Reasoning. I ikke-resonnerende modus brukte EXAONE 4.0 15 millioner tokens - høyt for en ikke-resonner, men ikke så høyt som Kimi K2s 30 millioner.
Viktige detaljer:
➤ Hybrid resonnement: Modellen tilbyr valgfrihet mellom "resonnement"-modus og "ikke-resonnement"-modus
➤ Tilgjengelighet: Hostet av @friendliai for øyeblikket, og konkurransedyktig priset (spesielt sammenlignet med proprietære alternativer) av FriendliAI til $1 per 1 million inngangs- og utgangstokens
➤ Åpne vekter: EXAONE 4.0 er en åpen vektmodell tilgjengelig under EXAONE AI Model License Agreement 1.2. Lisensen begrenser kommersiell bruk.
➤ Multimodalitet: Kun tekst inn- og utdata
➤ Kontekstvindu: 131k tokens
➤ Parametere: 32B aktive og totale parametere, tilgjengelig i 16bit og 8bit presisjon (betyr at modellen kan kjøres på en enkelt H100-brikke med full presisjon)

41,33K
Kunngjøring av Artificial Analysis Music Arena Leaderboard: med >5k stemmer er Suno v4.5 den ledende Music Generation-modellen etterfulgt av Riffusions FUZZ-1.1 Pro.
Googles Lyria 2 plasserer seg på tredjeplass på vår instrumental-ledertavle, og Udios v1.5 Allegro plasserer seg på tredjeplass på vokal-ledertavlen vår.
Den instrumentale ledertavlen er som følger:
🥇 @SunoMusic versjon 4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI stabil lyd 2.0
@metaai MusicGen
Rangeringer er basert på fellesskapsstemmer på tvers av et mangfold av sjangere og spørsmål. Vil du se forespørselen din omtalt? Du kan sende inn forespørsler i arenaen i dag.
👇 Se nedenfor for vokal-ledertavlen og lenke for å delta!

21,94K
Endring av modelletterspørsel 2024 til 2025: Google (+49 poeng), DeepSeek (+53 poeng) og xAI (+31 poeng) har oppnådd enorme gevinster i etterspørselsandel det siste året
@Google har gått over fra å være en AI-etternøler til en AI-leder med en ~2.5x økning i andel respondenter som bruker eller vurderer Gemini-modellserien. En nøkkeldriver for dette har vært at Google har gjort betydelige gevinster innen intelligens: Gemini 2.5 Pro sitter nå på #3 i vår Artificial Analysis Intelligence Index, sammenlignet med å ligge betydelig bak OpenAI og Anthropic tidlig i 2024.
@deepseek_ai i H1 2024 hadde bare gitt ut DeepSeek 67B, en modell som så begrenset adopsjon og underpresterte Llama 3 70B. DeepSeek så først noe opptak i slutten av 2024 med utgivelsene av deres V2-modell, og så deretter rask adopsjon tidlig i 2025 med deres V3- og R1-modeller som har tatt dem til lederskap blant åpne vektmodeller.
@xai lanserte sin første modell Grok-1 i midten av H1 2024 og har siden raskt klatret til etterretningsledelse på tvers av alle modeller med påfølgende utgivelser, som kulminerte med forrige ukes lansering av Grok 4.
Kilde: Kunstig analyse AI Adoption Survey H1 2025 (rapport tilgjengelig på nettstedet for kunstig analyse)

388,81K
Kimi K2-leverandører: Groq betjener Kimi K2 til >400 utdatatokens/s, 40 ganger raskere enn Moonshots førsteparts API
Gratulerer til en rekke leverandører for å være raske til å lansere APIer for Kimi K2, inkludert @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra og selvfølgelig @Kimi_Moonshot. Dette er imponerende med tanke på størrelsen på modellen med 1 billion totale parametere.
Groq skiller seg ut for lynrask hastighet. DeepInfra, Novita og Baseten skiller seg ut for sine priser, og er de eneste leverandørene som priser på samme måte som eller billigere enn Moonshots førsteparts API.
Se nedenfor for ytterligere sammenligninger mellom leverandørene. Vi forventer raske økninger i hastighet på tvers av noen leverandører etter hvert som teamene optimaliserer for K2-modellen - tallene våre nedenfor viser medianhastigheter de siste 72 timene, men vi ser allerede at DeepInfra hopper opp til 62 tokens/s i dagens målinger

52,04K
Mens Moonshot AIs Kimi k2 er den ledende ikke-resonnerende modellen med åpne vekter i Artificial Analysis Intelligence Index, sender den ut ~3 ganger flere tokens enn andre ikke-resonnerende modeller, og visker ut grensene mellom resonnement og ikke-resonnement
Kimi k2 er den største store åpne vektmodellen til nå - 1T totale parametere med 32B aktiv (dette krever massive 1 TB minne ved native FP8 for å holde vektene). Vi har k2 på 57 i Artificial Analysis Intelligence Index, en imponerende poengsum som setter den over modeller som GPT-4.1 og DeepSeek V3, men bak ledende resonneringsmodeller.
Til nå har det vært et klart skille mellom resonneringsmodell og ikke-resonnerende modeller i våre vurderinger - definert ikke bare av om modellen bruker <reasoning> tagger, men først og fremst av tokenbruk. Median antall tokens som brukes til å svare på alle vurderingene i Artificial Analysis Intelligence Index er ~10 ganger høyere for resonnerende modeller enn for ikke-resonnerende modeller.
@Kimi_Moonshot er Kimi k2 bruker ~3 ganger antallet tokens som medianmodellen uten resonnement bruker. Tokenbruken er bare opptil 30 % lavere enn Claude 4 Sonnet og Opus når den kjøres i deres maksimale budsjettutvidede tenkemodus, og er nesten tredoblet tokenbruken til både Claude 4 Sonnet og Opus med resonnement slått av.
Vi anbefaler derfor at Kimi k2 sammenlignes med Claude 4 Sonnet og Opus i deres maksimale budsjettutvidede tenkemoduser, ikke med de ikke-resonnerende poengsummene for Claude 4-modellene.
Kimi k2 er tilgjengelig på @Kimi_Moonshot førsteparts API samt @FireworksAI_HQ, @togethercompute, @novita_labs og @parasail_io.
Se nedenfor og på kunstig analyse for videre analyse 👇



60,38K
OpenAIs nye Deep Research API koster opptil ~$30 per API-anrop! Disse nye Deep Research API-endepunktene kan bare være den nye raskeste måten å bruke penger på
På tvers av våre 10 dype forskningstestspørsmål brukte vi $100 på o3 og $9.18 på o4-mini. Hvordan blir kostnadene så store? Høye priser og millioner av tokens.
Disse endepunktene er versjoner av o3 og o4-mini som har blitt RL for dype forskningsoppgaver. Tilgjengelighet via API gjør at de kan brukes med både OpenAIs nettsøkeverktøy og tilpassede datakilder via eksterne MCP-servere.
O4-mini-deep-research-priser er 5 ganger lavere enn o3-deep-research-priser. I testspørringene våre ser det også ut til at o4-mini bruker færre tokens - det kom inn over 10 ganger billigere totalt på tvers av våre 10 testspørringer.
Priser:
➤ o3-deep-research er priset til $ 10 / M inngang ($ 2.50 bufret inngang), $ 40 / M utgang
➤ o4-mini-deep-research er priset til $ 2 / M inngang ($ 0.5 bufret inngang), $ 8 / M utgang
Disse endepunktene er begge vesentlig dyrere enn OpenAIs standard o3- og o4-mini-endepunkter - de er på:
➤ o3: $ 2 / M ($ 0.5 bufret) inngang, $ 8 / M utgang for o3
➤ o4-mini: $1.1 /M (0.275 bufret) inngang, $4.4 /M utgang

37,03K
Black Forest Labs kommer til å skape en flom av nye startups med sin bilderedigeringsmodell med åpne vekter som ble utgitt i dag
- Virtuell prøving vil bli 10 ganger bedre, men det er bare starten. Vi vil også se nye opplevelser etter hvert som folk blir kreative med disse modellene (mye mer ekspansive enn Snapchat- og Instagram-filtre)
- Modellen er kun 12B og kan finjusteres på forbrukermaskinvare
- Plattformer som @FAL tilbyr full LoRA-opplæringsstøtte
Takk til @FAL for bildet nedenfor, de har en flott beskrivelse av finjusteringstilbudet deres (lenke nedenfor)

34,12K
Bilderedigering er nå åpen kildekode! Black Forest Labs har nettopp lansert en bilderedigeringsmodell med åpne vekter som kan sammenlignes i ytelse med proprietære modeller
@bfl_ml har gitt ut FLUX.1 Kontext [dev], en 12B bilderedigeringsmodell. Vi fikk tilgang til forhåndsutgivelse og har testet den i vår bildearena for kunstig analyse.
Vi har uavhengig bekreftet at den tilbyr sammenlignbar eller overlegen ytelse til en rekke proprietære modeller, inkludert Googles Gemini 2.0 Flash og ByteDances Bagel. FLUX.1 Kontext [dev] følger bare Black Forest Labs egne proprietære modeller og OpenAIs GPT-4o.
Vertsbaserte API-er er også tilgjengelige på @FAL, @replicate @togethercompute
Lenke nedenfor til vektene på HuggingFace 👐

24,56K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til