Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hier ist der Ritual Research Digest dieser Woche, ein Newsletter, der die neuesten Entwicklungen in der Welt der LLMs und der Schnittstelle von Crypto x AI abdeckt.
Mit Hunderten von wöchentlich veröffentlichten Arbeiten ist es unmöglich, auf dem neuesten Stand zu bleiben. Wir lesen für Sie, damit Sie es nicht müssen.

DeepSeekMath-V2: Auf dem Weg zu selbstverifizierbarem mathematischem Denken
Dieses Papier stellt DSMath-V2 vor, ein Modell, das auf deepseek-3.2-exp für das natürliche Sprachbeweisen in der Mathematik trainiert wurde. Die Lücke zwischen Generierung und Verifikation ist ein großes Hindernis für informelles Beweisen.

Zuerst trainieren sie einen Verifier für das Modell mithilfe von Expertenannotationen, um sowohl die Richtigkeit der Antworten als auch die Analyse zu bewerten.
Dieser Verifier wird verwendet, um das endgültige Prover-Modell zu trainieren, das sowohl Beweise schreibt als auch deren Richtigkeit analysiert.
Sie erreichen Gold bei der IMO 2025.
Künstliche Hivemind: Die offene Homogenität von Sprachmodellen (und darüber hinaus)
Das Papier stellt INFINITY-CHAT vor, einen Datensatz mit 26.000 realen Anfragen, die mehrere Antworten akzeptieren. Damit untersuchen sie den intra- und inter-modalen Modus-Kollaps in über 70 LMs.

Sie entdecken einen Effekt des künstlichen Hiveminds mit intra-modelllicher Wiederholung, bei dem ein Modell wiederholt ähnliche Ausgaben generiert, und inter-modelllicher Homogenität, bei der verschiedene Modelle auf ähnliche Ideen mit geringfügigen Formulierungsänderungen konvergieren. Dies wirft Fragen zur Diversität der Modelle auf.

Latente Zusammenarbeit in Multi-Agenten-Systemen
Die Arbeit stellt Latent MAS vor, ein End-to-End-Kollaborationsframework, das im kontinuierlichen latenten Raum arbeitet. Das Design integriert sowohl die latente Gedankenproduktion als auch den latenten Gedächtnistransfer zwischen den Agenten.

LatentMAS basiert auf der Ausdruckskraft des Denkens, der Kommunikationsgenauigkeit und der Komplexität der Zusammenarbeit. In sowohl sequenziellen als auch hierarchischen MAS-Einstellungen übertrifft Qwen 3 (4B, 8B und 14B) die textbasierten MAS-Baselines, verbessert die Genauigkeit und reduziert den Verbrauch von Ausgabetoken.

ToolOrchestra: Intelligenz durch effiziente Modell- und Werkzeugorchestrierung heben
Die Autoren schlagen ein Orchestrierungsparadigma vor, bei dem Intelligenz aus einem zusammengesetzten System entsteht. Ein Orchestrierungsmodell ruft die richtigen Werkzeuge in der richtigen Reihenfolge für eine Aufgabe auf.

Mit ToolOrchestra wird ein 8B-Modell mit RL trainiert, um zu entscheiden, wann und wie andere LMs und Tools aufgerufen werden. Die Belohnungen balancieren Korrektheit, Effizienz und Übereinstimmung mit den Benutzerpräferenzen.
Auf HLE übertrifft der Orchestrator frühere Methoden mit deutlich geringeren Rechenkosten.

Folge uns @ritualdigest für mehr über alles, was mit Krypto x AI-Forschung zu tun hat, und @ritualnet, um mehr darüber zu erfahren, was Ritual aufbaut.
3,35K
Top
Ranking
Favoriten
