Her er denne ukens Ritual Research Digest, et nyhetsbrev som dekker det siste i verden av LLM-er og skjæringspunktet mellom Crypto x AI. Med hundrevis av artikler utgitt ukentlig, er det umulig å holde seg oppdatert med det siste. Vi leser slik at du ikke trenger å gjøre det.
DeepSeekMath-V2: Mot selvverifiserbar matematisk resonnement Denne artikkelen introduserer DSMath-V2, en modell trent på deepseek-3.2-exp for naturlig språkbevis i matematikk. Generasjonsverifiseringsgapet er en stor hindring for uformell bevising.
De trener først en verifikator for modellen ved hjelp av ekspertannotasjoner for å vurdere både riktigheten av svarene og analysen. Denne verifikatoren brukes til å trene den endelige bevismodellen, som både skriver bevis og analyserer deres korrekthet. De oppnår gull i IMO 2025.
Kunstig kollektivsinn: Den åpne homogeniteten i språkmodeller (og utover) Artikkelen introduserer INFINITY-CHAT, et datasett med 26K virkelige spørringer som aksepterer flere svar. Ved å bruke dette studerer de intra- og inter-modell modekollaps hos 70+ LM-er.
De avdekker en kunstig Hivemind-effekt med repetisjon intra-modell, hvor en modell gjentatte ganger genererer lignende output, og homogenitet mellom modeller, hvor ulike modeller konvergerer mot lignende ideer med mindre fraseringsendringer. Dette reiser spørsmål om modellmangfold.
Latent samarbeid i fleragentsystemer Verket introduserer latent MAS, et ende-til-ende samarbeidsrammeverk som opererer i kontinuerlig latent rom. Designet integrerer både latent tankegenerering og overføring av latent minne på tvers av agenter.
LatentMAS er basert på resonnement, uttrykksevne, kommunikasjonstrofasthet og samarbeidskompleksitet. På tvers av både sekvensielle og hierarkiske MAS-innstillinger, Qwen 3(4B, 8B og 14B), overgår LatentMAS tekstbaserte MAS-baselines ved å forbedre nøyaktigheten og redusere bruken av utdatatoken.
ToolOrchestra: Heving av intelligens gjennom effektiv modell- og verktøyorkestrering Forfatterne foreslår et orkestreringsparadigme hvor intelligens oppstår fra et sammensatt system. En orkestratormodell bruker de riktige verktøyene i riktig rekkefølge for en oppgave.
Ved å bruke ToolOrchestra trenes en 8B-modell med RL for å bestemme når og hvordan andre LM-er og verktøy skal kalles opp. Den belønner balansekorrekthet, effektivitet og samsvar med brukerpreferanser. På HLE overgår Orchestrator tidligere metoder med langt lavere beregningskostnad.
Følg oss @ritualdigest for mer om alt som har med krypto x AI-forskning å gjøre, og @ritualnet lære mer om hva Ritual bygger.
3,34K