Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Toată lumea ratează adevărata poveste aici.
Aceasta nu este o "tehnică de stimulare". Articolul se numește Modele de Limbaj Recursiv, nu "Meta-Cogniție Recursivă". Și autorii nu sunt cercetători aleatori care se chinuie pentru numărul de citări.
Omar Khattab a creat DSPy, care are 31.000+ stele pe GitHub și a schimbat modul în care oamenii construiesc sisteme AI compuse. Tim Kraska a fost pionier în structurile de index învățate împreună cu Jeff Dean la Google și conduce Laboratorul de Sisteme de Date și AI al MIT. Alex Zhang este doctorand și lucrează la intersecția ambelor.
Lucrarea propriu-zisă abordează o problemă specifică: LLM-urile se degradează pe termen lung. Graficul arată performanța GPT-5 prăbușindu-se pe măsură ce lungimea intrării crește de la 2^14 la 2^21 tokenuri, în timp ce RLM-urile mențin performanțe stabile. Ei gestionează intrări de 100 de ori peste ferestrele de context.
Perspectiva cheie din Twitter-ul lui Khattab: "Majoritatea oamenilor înțeleg greșit RLM-urile ca fiind despre LLM-uri care se invocă pe ele însele. Perspectiva mai profundă este că LLM-urile interacționează cu propriile lor prompturi ca obiecte."
Aceasta extinde întregul arc de cercetare al lui Khattab. DSPy a transformat prompturile în module programatice. ColBERT a făcut recuperarea mai inteligentă. RLM-urile transformă contextul însuși într-un lucru pe care modelul îl poate manipula, ca datele din memorie.
Prime Intellect, unul dintre cele mai importante laboratoare de AI descentralizate, construiește deja pe această platformă. Ei au scris că RLM-urile le vor permite "să învețe modelele să-și gestioneze propriul context de la un sfârșit la altul prin învățare prin întărire" pentru agenții care se desfășoară pe parcursul săptămânilor sau lunilor.
Adevărata meserie? Acest lucru rezolvă o constrângere cu care se confruntă orice laborator AI: ferestrele contextuale sunt un tavan dur. Extinderea lor prin arhitectură și instruire este costisitoare. RLM-urile oferă o abordare de timp de inferență care funcționează cu modelele existente.
Dar fii atent la capcană: asta necesită modele care pot scrie și executa cod în mod fiabil. Benchmark-urile folosesc GPT-5 într-un REPL Python. Modelele cu generare de cod mai slabă vor avea dificultăți în a implementa curat descompunerea recursivă. Tehnica scalează cu capacitatea de cod, nu doar cu capacitatea de raționament.
Limită superioară
Clasament
Favorite
