Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
DeepSeek V3.2 er den #2 mest intelligente modellen for åpne vekter og ligger også foran Grok 4 og Claude Sonnet 4.5 (Tenkning) – den tar DeepSeek Sparse Attention ut av 'eksperimentell' status og kombinerer det med en materiell økning i intelligens
@deepseek_ai V3.2 får 66 på Artificial Analysis Intelligence Index; en betydelig etterretningsøkning sammenlignet med DeepSeek V3.2-Exp (+9 poeng) som ble utgitt i september 2025. DeepSeek har byttet sitt hoved-API-endepunkt til V3.2, uten prisendring fra V3.2-Exp-prisen – dette setter prisen på bare 0,28 dollar/0,42 dollar per 1 million input/output-tokens, med 90 % rabatt for bufrede inputtokens.
Siden den opprinnelige DeepSeek V3-utgivelsen for ~11 måneder siden i slutten av desember 2024, har DeepSeeks V3-arkitektur med 671B total/37B aktive parametere gått fra en modell som scorer 32 til å oppnå 66 i Artificial Analysis Intelligence Index.
DeepSeek har også lansert V3.2-Speciale, en variant kun basert på resonnement med forbedrede muligheter, men betydelig høyere tokenbruk. Dette er en vanlig avveining i resonnementmodeller, hvor mer forbedret resonnement vanligvis gir høyere intelligensscore og flere output-tokens. V3.2-Speciale er tilgjengelig via DeepSeeks førsteparts-API frem til 15. desember.
V3.2-Speciale scorer for øyeblikket lavere på Artificial Analysis Intelligence Index (59) enn V3.2 (Reasoning, 66) fordi DeepSeeks førsteparts-API ennå ikke støtter verktøykall for denne modellen. Hvis V3.2-Speciale matchet V3.2s tau2-score (91 %) med verktøykall aktivert, ville den score ~68 på Intelligence Index, noe som gjør den til den mest intelligente modellen med åpne vekter. V3.2-Speciale bruker 160 millioner utdatatokens for å kjøre Artificial Analysis Intelligence Index, nesten ~2 ganger så mange tokens som V3.2 bruker i resonnementsmodus.
DeepSeek V3.2 bruker en identisk arkitektur som V3.2-Exp, som introduserte DeepSeek Sparse Attention (DSA) for å redusere beregningen som kreves for lang kontekstinferens. Vår Long Context Reasoning-benchmark viste ingen kostnad for intelligensen ved innføringen av DSA. DeepSeek reflekterte denne kostnadsfordelen til V3.2-Exp ved å kutte prisen på deres førsteparts-API fra $0,56/$1,68 til $0,28/$0,42 per 1 million input/output-tokens – en reduksjon på henholdsvis 50 % og 75 % i prisene på input- og outputtokens.
Viktige benchmarking-innsikter:
➤ 🧠 DeepSeek V3.2: I resonnementsmodus scorer DeepSeek V3.2 66 på Artificial Analysis Intelligence Index og plasserer seg tilsvarende Kimi K2 Thinking (67) og foran Grok 4 (65), Grok 4.1 Fast (Reasoning, 64) og Claude Sonnet 4.5 (Thinking, 63). Den viser merkbare forbedringer sammenlignet med V3.2-Exp (57) på tvers av verktøybruk, langtidsresonnement og koding.
➤ 🧠 DeepSeek V3.2-Speciale: V3.2-Speciale scorer høyere enn V3.2 (Resonnement) på 7 av de 10 referansepunktene i vår intelligensindeks. V3.2-Speciale har nå de høyeste og nest høyeste poengsummene blant alle modeller for henholdsvis AIME25 (97 %) og LiveCodeBench (90 %). Men som nevnt ovenfor støtter ikke DeepSeeks førsteparts-API for V3.2-Speciale verktøykall, og modellen får en score på 0 på tau2-benchmarken.
➤ 📚 Hallusinasjon og kunnskap: DeepSeek V3.2-Speciale og V3.2 er de høyest rangerte åpne vektmodellene på Artificial Analysis Omniscience Index med henholdsvis -19 og -23. Proprietære modeller fra Google, Anthropic, OpenAI og xAI leder vanligvis denne indeksen.
➤ ⚡ Ikke-resonnement-prestasjon: I ikke-resonnement-modus scorer DeepSeek V3.2 52 på Artificial Analysis Intelligence Index (+6 poeng mot V3.2-Exp) og er den #3 mest intelligente ikke-resonnement-modellen. DeepSeek V3.2 (Ikke-resonnerende) matcher intelligensen til DeepSeek R1 0528, en banebrytende resonneringsmodell fra mai 2025, og fremhever de raske intelligensgevinstene som er oppnådd gjennom fortrening og RL-forbedringer i år.
➤ ⚙️ Token-effektivitet: I resonnementsmodus brukte DeepSeek V3.2 flere tokens enn V3.2-Exp for å kjøre Artificial Analysis Intelligence Index (fra 62M til 86M). Token-bruken forblir lik i ikke-resonnementerende varianter. V3.2-Speciale demonstrerer betydelig høyere tokenbruk, med ~160 millioner utgangstokens foran Kimi K2 Thinking (140M) og Grok 4 (120M)
➤💲Prising: DeepSeek har ikke oppdatert prisene per token for sin førsteparts, og alle tre variantene er tilgjengelige til $0,28/$0,42 per 1 million input/output-tokens
Andre modelldetaljer:
➤ ©️ Lisensiering: DeepSeek V3.2 er tilgjengelig under MIT-lisensen
➤ 🌐 Tilgjengelighet: DeepSeek V3.2 er tilgjengelig via DeepSeek API, som har erstattet DeepSeek V3.2-Exp. Brukere kan få tilgang til DeepSeek V3.2-Speciale via et midlertidig DeepSeek API frem til 15. desember. Gitt intelligensøkningen i denne utgivelsen, forventer vi at flere tredjepartsleverandører snart vil tilby denne modellen.
➤ 📏 Størrelse: DeepSeek V3.2 Exp har totalt 671B parametere og 37B aktive parametere. Dette er det samme som alle tidligere modeller i DeepSeek V3- og R1-seriene

På DeepSeeks førsteparts API-pris på $0,28/$0,42 per 1 million input/output-tokens, ligger V3.2 (Reasoning) på Pareto-fronten av diagrammet Intelligens vs. Kostnad for å kjøre kunstig analyse av intelligensindeks

DeepSeek V3.2-Speciale er den høyest rangerte modellen med åpne vekter på Artificial Analysis Omniscience Index, mens V3.2 (Reasoning) matcher Kimi K2 Thinking

DeepSeek V3.2 er mer ordrik enn sin forgjenger i resonnementmodus, og bruker flere utdatatokens for å kjøre Artificial Analysis Intelligence Index (86M vs. 62M).

Sammenlign hvordan DeepSeek V3.2 presterer i forhold til modeller du bruker eller vurderer på:
66,98K
Topp
Rangering
Favoritter

