Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Kaikki eivät ymmärrä oikeaa tarinaa.
Tämä ei ole mikään "kehotustekniikka". Artikkelin nimi on Recursive Language Models, ei "Recursive Meta-Cognition". Eikä kirjoittajat ole satunnaisia tutkijoita, jotka keräävät viitteitä.
Omar Khattab loi DSPy:n, jolla on 31 000+ GitHub-tähteä, ja se muutti tapaa, jolla ihmiset rakentavat yhdistelmätekoälyjärjestelmiä. Tim Kraska oli edelläkävijä opittujen indeksirakenteiden kehittämisessä yhdessä Jeff Deanin kanssa Googlella ja johtaa MIT:n Data Systems and AI Labia. Alex Zhang on tohtoriopiskelija, joka työskentelee molempien leikkauspisteessä.
Varsinainen artikkeli käsittelee tiettyä ongelmaa: LLM:t heikkenevät pitkän kontekstin mukaan. Kaavio näyttää GPT-5:n suorituskyvyn romahtavan, kun syötteen pituus skaalautuu 2^14:stä 2^21 tokeniin, kun taas RLM:t säilyttävät vakaan suorituskyvyn. He käsittelevät syötteitä sata kertaa kontekstin ikkunoiden ulkopuolella.
Keskeinen oivallus Khattabin omasta Twitteristä: "Useimmat ihmiset ymmärtävät RLM:t väärin niin, että ne viittaavat LLM:iin. Syvempi oivallus on LLM:ien vuorovaikutus omien kehotteiden kanssa objekteina."
Tämä jatkaa Khattabin koko tutkimuskaarta. DSPy muutti kehotteet ohjelmalisiksi moduuleiksi. ColBERT teki keräyksestä älykkäämmän. RLM:t muuttavat kontekstin itsensä joksikin, mitä malli voi käsitellä kuten muistidataa.
Prime Intellect, yksi johtavista hajautetuista tekoälylaboratorioista, rakentaa jo tämän päälle. He kirjoittivat, että RLM:t antavat "opettaa malleja hallitsemaan omaa kontekstiaan alusta päähän vahvistusoppimisen avulla" agenteille, jotka toimivat viikkojen tai kuukausien ajan.
Oikea kauppa? Tämä ratkaisee rajoitteen, jonka jokainen tekoälylaboratorio kohtaa: kontekstiikkunat ovat kova katto. Niiden laajentaminen arkkitehtuurin ja koulutuksen avulla on kallista. RLM:t tarjoavat päättelyaika-lähestymistavan, joka toimii olemassa olevien mallien kanssa.
Mutta varo koukkua: tämä vaatii malleja, jotka pystyvät kirjoittamaan ja suorittamaan koodia luotettavasti. Testit käyttävät GPT-5:ttä Python REPL:ssä. Heikomman koodin generointimallit kamppailevat rekursiivisen hajotelman siistissä toteutuksessa. Tekniikka skaalautuu koodin kyvykkyyden mukaan, ei pelkästään päättelykyvyn mukaan.
Johtavat
Rankkaus
Suosikit
