Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alla missar den verkliga historien här.
Detta är inte en "prompting-teknik." Artikeln heter Rekursiva språkmodeller, inte "Rekursiv metakognition." Och författarna är inte slumpmässiga forskare som kämpar för att få citeringar.
Omar Khattab skapade DSPy, som har 31 000+ GitHub-stjärnor och förändrade hur människor bygger sammansatta AI-system. Tim Kraska var pionjär inom inlärda indexstrukturer tillsammans med Jeff Dean på Google och driver MIT:s Data Systems and AI Lab. Alex Zhang är doktorand och arbetar i skärningspunkten mellan båda.
Den faktiska artikeln tar upp ett specifikt problem: LLM:er försämras vid lång kontext. Grafen visar GPT-5:s prestandakollaps när indatalängden skalar från 2^14 till 2^21 tokens, medan RLM:er behåller stabil prestanda. De hanterar indata 100 gånger utanför kontextfönster.
Den viktigaste insikten från Khattabs egen Twitter: "De flesta missförstår RLM som att det handlar om LLM som åberopar sig själva. Den djupare insikten är LLM:er som interagerar med sina egna prompts som objekt."
Detta förlänger hela Khattabs forskningsbåge. DSPy omvandlade prompts till programmatiska moduler. ColBERT gjorde hämtningen smartare. RLM:er omvandlar kontexten själv till något modellen kan manipulera, som data i minnet.
Prime Intellect, ett av de ledande decentraliserade AI-laboratorierna, bygger redan vidare på detta. De skrev att RLM:er låter dem "lära modeller att hantera sin egen kontext från början till slut genom förstärkningsinlärning" för agenter som pågår över veckor eller månader.
Det riktiga yrket? Detta löser en begränsning som varje AI-labb står inför: kontextfönster är ett hårt tak. Att utöka dem genom arkitektur och utbildning är dyrt. RLM:er erbjuder en inferenstidsmetod som fungerar med befintliga modeller.
Men var uppmärksam på problemet: detta kräver modeller som kan skriva och köra kod pålitligt. Benchmarks använder GPT-5 i en Python REPL. Modeller med svagare kodgenerering kommer att ha svårt att implementera den rekursiva dekompositionen rent. Tekniken skalar med kodkapacitet, inte bara resonemangsförmåga.
Topp
Rankning
Favoriter
