Kaikki eivät ymmärrä oikeaa tarinaa. Tämä ei ole mikään "kehotustekniikka". Artikkelin nimi on Recursive Language Models, ei "Recursive Meta-Cognition". Eikä kirjoittajat ole satunnaisia tutkijoita, jotka keräävät viitteitä. Omar Khattab loi DSPy:n, jolla on 31 000+ GitHub-tähteä, ja se muutti tapaa, jolla ihmiset rakentavat yhdistelmätekoälyjärjestelmiä. Tim Kraska oli edelläkävijä opittujen indeksirakenteiden kehittämisessä yhdessä Jeff Deanin kanssa Googlella ja johtaa MIT:n Data Systems and AI Labia. Alex Zhang on tohtoriopiskelija, joka työskentelee molempien leikkauspisteessä. Varsinainen artikkeli käsittelee tiettyä ongelmaa: LLM:t heikkenevät pitkän kontekstin mukaan. Kaavio näyttää GPT-5:n suorituskyvyn romahtavan, kun syötteen pituus skaalautuu 2^14:stä 2^21 tokeniin, kun taas RLM:t säilyttävät vakaan suorituskyvyn. He käsittelevät syötteitä sata kertaa kontekstin ikkunoiden ulkopuolella. Keskeinen oivallus Khattabin omasta Twitteristä: "Useimmat ihmiset ymmärtävät RLM:t väärin niin, että ne viittaavat LLM:iin. Syvempi oivallus on LLM:ien vuorovaikutus omien kehotteiden kanssa objekteina." Tämä jatkaa Khattabin koko tutkimuskaarta. DSPy muutti kehotteet ohjelmalisiksi moduuleiksi. ColBERT teki keräyksestä älykkäämmän. RLM:t muuttavat kontekstin itsensä joksikin, mitä malli voi käsitellä kuten muistidataa. Prime Intellect, yksi johtavista hajautetuista tekoälylaboratorioista, rakentaa jo tämän päälle. He kirjoittivat, että RLM:t antavat "opettaa malleja hallitsemaan omaa kontekstiaan alusta päähän vahvistusoppimisen avulla" agenteille, jotka toimivat viikkojen tai kuukausien ajan. Oikea kauppa? Tämä ratkaisee rajoitteen, jonka jokainen tekoälylaboratorio kohtaa: kontekstiikkunat ovat kova katto. Niiden laajentaminen arkkitehtuurin ja koulutuksen avulla on kallista. RLM:t tarjoavat päättelyaika-lähestymistavan, joka toimii olemassa olevien mallien kanssa. Mutta varo koukkua: tämä vaatii malleja, jotka pystyvät kirjoittamaan ja suorittamaan koodia luotettavasti. Testit käyttävät GPT-5:ttä Python REPL:ssä. Heikomman koodin generointimallit kamppailevat rekursiivisen hajotelman siistissä toteutuksessa. Tekniikka skaalautuu koodin kyvykkyyden mukaan, ei pelkästään päättelykyvyn mukaan.