Importante rilascio da DeepSeek. E un grande affare per gli LLM open-source. DeepSeek-V3.2-Speciale è alla pari con Gemini-3-Pro nell'Olimpiade Internazionale di Matematica (IMO) 2025 e nell'Olimpiade Internazionale di Informatica (IOI). Supera persino il Gemini 3 Pro in diversi benchmark. DeepSeek identifica tre colli di bottiglia critici: > meccanismi di attenzione vanilla che si bloccano su sequenze lunghe, > calcolo post-addestramento insufficiente, > e debole generalizzazione in scenari agentici. Introducono DeepSeek-V3.2, un modello che affronta tutti e tre i problemi simultaneamente. Una chiave innovativa è l'Attenzione Sparsa di DeepSeek (DSA), che riduce la complessità dell'attenzione da O(L²) a O(Lk) dove k è molto più piccolo della lunghezza della sequenza. Un "indicizzatore leggero" valuta quali token sono importanti, quindi solo quei token top-k ricevono attenzione completa. Il risultato: notevoli accelerazioni su contesti lunghi senza sacrificare le prestazioni. Ma l'architettura da sola non è sufficiente. DeepSeek assegna calcolo post-addestramento superiore al 10% del costo di pre-addestramento, un enorme investimento in RL che si traduce direttamente in capacità di ragionamento. Per compiti agentici, hanno costruito una pipeline automatica di sintesi ambientale generando 1.827 ambienti di compito distinti e oltre 85.000 prompt complessi. Agenti di codice, agenti di ricerca e compiti di pianificazione generale (tutti sintetizzati su larga scala per l'addestramento RL). I numeri: all'AIME 2025, DeepSeek-V3.2 raggiunge il 93,1% (GPT-5-High: 94,6%). Su SWE-Verified, il 73,1% risolto. Su HLE solo testo, il 25,1% rispetto al 26,3% di GPT-5. La loro variante ad alta capacità di calcolo, DeepSeek-V3.2-Speciale, va oltre, ottenendo medaglie d'oro nell'IMO 2025 (35/42 punti), nell'IOI 2025 (492/600) e nelle Finali Mondiali ICPC 2025 (10/12 problemi risolti). Questo è il primo modello open a competere credibilmente con i sistemi proprietari all'avanguardia in termini di ragionamento, codifica e benchmark agentici.