Ecco il Digest di Ricerca Rituale di questa settimana, una newsletter che copre le ultime novità nel mondo dei LLM e l'intersezione tra Crypto e AI. Con centinaia di articoli pubblicati settimanalmente, rimanere aggiornati con le ultime novità è impossibile. Noi facciamo la lettura così non dovete farlo voi.
DeepSeekMath-V2: Verso un Ragionamento Matematico Autoverificabile Questo documento introduce DSMath-V2, un modello addestrato su deepseek-3.2-exp per la dimostrazione in linguaggio naturale in matematica. Il divario tra generazione e verifica è un ostacolo importante per la dimostrazione informale.
Inizialmente addestrano un verificatore per il modello utilizzando annotazioni di esperti per valutare sia la correttezza delle risposte che l'analisi. Questo verificatore viene utilizzato per addestrare il modello finale di dimostratore, che scrive prove e analizza la loro correttezza. Raggiungono l'oro all'IMO 2025.
Artificial Hivemind: L'omogeneità aperta dei modelli linguistici (e oltre) Il documento introduce INFINITY-CHAT, un dataset di 26K query del mondo reale che accettano risposte multiple. Utilizzando questo, studiano il collasso di modalità intra- e inter-modello in oltre 70 LM.
Scoprono un effetto di Intelligenza Collettiva Artificiale con ripetizione intra-modello, in cui un modello genera ripetutamente output simili, e omogeneità inter-modello, in cui modelli diversi convergono su idee simili con lievi variazioni di frase. Questo solleva interrogativi sulla diversità dei modelli.
Collaborazione Latente nei Sistemi Multi-Agente Il lavoro introduce Latent MAS, un framework collaborativo end-to-end che opera in uno spazio latente continuo. Il design integra sia la generazione di pensieri latenti che il trasferimento di memoria latente tra agenti.
LatentMAS si basa sull'espressività del ragionamento, sulla fedeltà della comunicazione e sulla complessità della collaborazione. In contesti MAS sia sequenziali che gerarchici, Qwen 3(4B, 8B e 14B), LatentMAS supera le basi MAS basate su testo migliorando l'accuratezza e riducendo l'uso dei token di output.
ToolOrchestra: Elevare l'intelligenza attraverso un'efficiente orchestrazione di modelli e strumenti Gli autori propongono un paradigma di orchestrazione in cui l'intelligenza emerge da un sistema composito. Un modello di orchestratore invoca gli strumenti giusti nell'ordine giusto per un compito.
Utilizzando ToolOrchestra, un modello 8B viene addestrato con RL per decidere quando e come invocare altri LMs e strumenti. Le ricompense bilanciano correttezza, efficienza e allineamento con le preferenze degli utenti. Su HLE, Orchestrator supera i metodi precedenti con costi computazionali molto inferiori.
Seguici su @ritualdigest per ulteriori informazioni su tutto ciò che riguarda la ricerca crypto x AI, e @ritualnet per saperne di più su cosa sta costruendo Ritual.
3,35K