Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Una grafica per comprendere il nuovo modello DeepSeek DeepSeek-Math-V2!
DeepSeek ha appena rilasciato DeepSeek-Math-V2!
Esatto, si tratta di un modello specifico per il campo del ragionamento matematico, questa volta basato su DeepSeek-V3.2 per il post-training/finetuning, il che significa che DeepSeek ha completamente migrato a una nuova architettura.
In termini di prestazioni, l'IMO 2025 (Olimpiadi Internazionali di Matematica) ha raggiunto l'83,3%, raggiungendo il livello della medaglia d'oro dell'IMO. ProofBench-Basic ha fatto un punteggio stratosferico, con il 99%, schiacciando tutti gli altri modelli. Mentre ProofBench-Advanced è secondo solo a Gemini Deep Think (questo è una piattaforma con Agent, non un modello puro).
A proposito, quest'anno l'IMO 2025 è stato vinto dal nostro paese. Poi ho calcolato che il punteggio di 83,3% di DeepSeek-Math-V2, se distribuito uniformemente su ogni domanda, dovrebbe essere di 210 punti (su un totale di 252 punti, con un'accuratezza dell'83,3%), posizionandosi tra gli Stati Uniti (216 punti) e la Corea del Sud (203 punti), quindi al terzo posto.

Principali
Ranking
Preferiti

