Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
DeepSeek V3.2 ist das intelligenteste offene Gewichtsmodell #2 und liegt auch vor Grok 4 und Claude Sonnet 4.5 (Thinking) - es hebt DeepSeek Sparse Attention aus dem ‚experimentellen‘ Status und kombiniert es mit einem erheblichen Anstieg der Intelligenz.
@deepseek_ai V3.2 erzielt 66 im Artificial Analysis Intelligence Index; ein erheblicher Anstieg der Intelligenz im Vergleich zu DeepSeek V3.2-Exp (+9 Punkte), das im September 2025 veröffentlicht wurde. DeepSeek hat seinen Haupt-API-Endpunkt auf V3.2 umgestellt, ohne Preisänderung im Vergleich zur V3.2-Exp-Preise - dies setzt die Preise auf nur 0,28 $/0,42 $ pro 1M Eingabe-/Ausgabetokens, mit 90 % Rabatt für zwischengespeicherte Eingabetokens.
Seit der ursprünglichen Veröffentlichung von DeepSeek V3 vor etwa 11 Monaten Ende Dezember 2024 hat die V3-Architektur von DeepSeek mit 671B Gesamt-/37B aktiven Parametern es geschafft, von einem Modell, das 32 Punkte erzielte, auf 66 Punkte im Artificial Analysis Intelligence Index zu steigen.
DeepSeek hat auch V3.2-Speciale veröffentlicht, eine nur auf Schlussfolgerungen basierende Variante mit erweiterten Fähigkeiten, aber signifikant höherem Tokenverbrauch. Dies ist ein gängiger Kompromiss bei Schlussfolgerungsmodellen, bei dem eine verbesserte Schlussfolgerung im Allgemeinen höhere Intelligenzwerte und mehr Ausgabetokens ergibt. V3.2-Speciale ist über die First-Party-API von DeepSeek bis zum 15. Dezember verfügbar.
V3.2-Speciale erzielt derzeit einen niedrigeren Wert im Artificial Analysis Intelligence Index (59) als V3.2 (Reasoning, 66), da die First-Party-API von DeepSeek für dieses Modell das Tool-Calling noch nicht unterstützt. Wenn V3.2-Speciale den tau2-Wert von V3.2 (91 %) mit aktiviertem Tool-Calling erreichen würde, würde es etwa 68 im Intelligence Index erzielen und damit das intelligenteste offene Gewichtsmodell sein. V3.2-Speciale verwendet 160M Ausgabetokens, um den Artificial Analysis Intelligence Index auszuführen, fast ~2x die Anzahl der Tokens, die V3.2 im Schlussfolgerungsmodus verwendet.
DeepSeek V3.2 verwendet eine identische Architektur wie V3.2-Exp, die DeepSeek Sparse Attention (DSA) eingeführt hat, um den Rechenaufwand für die Inferenz mit langem Kontext zu reduzieren. Unser Long Context Reasoning Benchmark zeigte keine Kosten für die Intelligenz durch die Einführung von DSA. DeepSeek spiegelte diesen Kostenvorteil von V3.2-Exp wider, indem die Preise für ihre First-Party-API von 0,56 $/1,68 $ auf 0,28 $/0,42 $ pro 1M Eingabe-/Ausgabetokens gesenkt wurden - eine Reduzierung der Preise für Eingabe- und Ausgabetokens um 50 % bzw. 75 %.
Wichtige Benchmark-Ergebnisse:
➤🧠 DeepSeek V3.2: Im Schlussfolgerungsmodus erzielt DeepSeek V3.2 66 im Artificial Analysis Intelligence Index und platziert sich gleichwertig mit Kimi K2 Thinking (67) und vor Grok 4 (65), Grok 4.1 Fast (Reasoning, 64) und Claude Sonnet 4.5 (Thinking, 63). Es zeigt bemerkenswerte Steigerungen im Vergleich zu V3.2-Exp (57) in Bezug auf die Nutzung von Tools, Schlussfolgerungen mit langem Kontext und Programmierung.
➤🧠 DeepSeek V3.2-Speciale: V3.2-Speciale erzielt in 7 der 10 Benchmarks in unserem Intelligence Index höhere Werte als V3.2 (Reasoning). V3.2-Speciale hält nun die höchsten und zweithöchsten Werte unter allen Modellen für AIME25 (97 %) und LiveCodeBench (90 %) respektive. Wie bereits erwähnt, unterstützt die First-Party-API von DeepSeek für V3.2-Speciale jedoch kein Tool-Calling, und das Modell erhält einen Wert von 0 im tau2-Benchmark.
➤📚 Halluzination und Wissen: DeepSeek V3.2-Speciale und V3.2 sind die am höchsten eingestuften offenen Gewichtsmodelle im Artificial Analysis Omniscience Index mit -19 und -23 Punkten respektive. Proprietäre Modelle von Google, Anthropic, OpenAI und xAI führen typischerweise diesen Index an.
➤⚡ Nicht-Schlussfolgerungsleistung: Im Nicht-Schlussfolgerungsmodus erzielt DeepSeek V3.2 52 im Artificial Analysis Intelligence Index (+6 Punkte im Vergleich zu V3.2-Exp) und ist das drittintelligenteste Nicht-Schlussfolgerungsmodell. DeepSeek V3.2 (Nicht-Schlussfolgerung) erreicht die Intelligenz von DeepSeek R1 0528, einem Grenzschlussfolgerungsmodell von Mai 2025, was die schnellen Intelligenzgewinne zeigt, die in diesem Jahr durch Vortraining und RL-Verbesserungen erzielt wurden.
➤⚙️ Token-Effizienz: Im Schlussfolgerungsmodus verwendete DeepSeek V3.2 mehr Tokens als V3.2-Exp, um den Artificial Analysis Intelligence Index auszuführen (von 62M auf 86M). Der Tokenverbrauch bleibt im Nicht-Schlussfolgerungsmodell ähnlich. V3.2-Speciale zeigt einen signifikant höheren Tokenverbrauch und verwendet ~160M Ausgabetokens, mehr als Kimi K2 Thinking (140M) und Grok 4 (120M).
➤💲Preise: DeepSeek hat die Preise pro Token für ihre First-Party-API nicht aktualisiert, und alle drei Varianten sind zu 0,28 $/0,42 $ pro 1M Eingabe-/Ausgabetokens verfügbar.
Weitere Modelldetails:
➤ ©️ Lizenzierung: DeepSeek V3.2 ist unter der MIT-Lizenz verfügbar.
➤ 🌐 Verfügbarkeit: DeepSeek V3.2 ist über die DeepSeek-API verfügbar, die DeepSeek V3.2-Exp ersetzt hat. Benutzer können DeepSeek V3.2-Speciale über eine temporäre DeepSeek-API bis zum 15. Dezember nutzen. Angesichts des Anstiegs der Intelligenz in dieser Veröffentlichung erwarten wir, dass eine Reihe von Drittanbietern dieses Modell bald anbieten werden.
➤ 📏 Größe: DeepSeek V3.2 Exp hat 671B Gesamtparameter und 37B aktive Parameter. Dies ist dasselbe wie bei allen vorherigen Modellen der DeepSeek V3- und R1-Serie.

Bei den Preisen der ersten API von DeepSeek von 0,28 $/0,42 $ pro 1 Million Eingabe-/Ausgabetokens befindet sich V3.2 (Reasoning) an der Pareto-Grenze des Diagramms "Intelligenz vs. Kosten für den Betrieb von künstlicher Analyseintelligenz".

DeepSeek V3.2-Speciale ist das am höchsten eingestufte Open-Weights-Modell im Artificial Analysis Omniscience Index, während V3.2 (Reasoning) mit Kimi K2 Thinking übereinstimmt.

DeepSeek V3.2 ist im Denkmodus ausführlicher als sein Vorgänger und verwendet mehr Ausgabetokens, um den Artificial Analysis Intelligence Index (86M vs. 62M) auszuführen.

Vergleichen Sie, wie DeepSeek V3.2 im Vergleich zu den Modellen, die Sie verwenden oder in Betracht ziehen, abschneidet:
66,98K
Top
Ranking
Favoriten

