Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Badacze z MIT proponują Rekursywne Modele Językowe
Usłyszysz o tym więcej w 2026 roku.
Dlaczego to ma znaczenie?
Co jeśli LLM-y mogłyby przetwarzać dane wejściowe 100 razy dłuższe niż ich okno kontekstowe?
Długość kontekstu to twarde ograniczenie.
Możesz je wydłużyć za pomocą zmian architektonicznych, ale zawsze istnieje limit. Większość podejść stara się wcisnąć więcej do okna lub skompresować to, co się nie mieści.
Te nowe badania przyjmują inne podejście. Zamiast walczyć z limitem kontekstu, pracuj wokół niego programowo.
Rekursywne Modele Językowe (RLM) traktują długie zapytania jako zewnętrzne środowisko. Model może zbadać zapytanie, rozłożyć je na sekcje i rekurencyjnie wywołać siebie na fragmentach. To skalowanie w czasie wnioskowania zastosowane do długości kontekstu.
Zamiast zmuszać wszystko do przejścia przez uwagę w jednym przebiegu, pozwól modelowi strategicznie podzielić i przetwarzać informacje w wielu rekurencyjnych wywołaniach.
Wyniki są imponujące. RLM-y skutecznie radzą sobie z danymi wejściowymi do dwóch rzędów wielkości przekraczających okna kontekstowe modelu. Model z kontekstem 8K może skutecznie przetwarzać 800K tokenów.
Ale oto, co jest zaskakujące: nawet dla krótszych zapytań, które mieszczą się w kontekście, RLM-y dramatycznie przewyższają podstawowe LLM-y i powszechne rusztowania długiego kontekstu w czterech różnych zadaniach.
To sugeruje coś interesującego.
Może sekwencyjna uwaga nad całym wejściem nie zawsze jest najlepszą strategią, nawet gdy jest technicznie możliwa. Programowe rozkładanie i rekurencyjne przetwarzanie mogą być zasadniczo lepsze dla niektórych zadań.
Podejście osiąga porównywalny lub tańszy koszt na zapytanie w porównaniu do alternatywnych metod długiego kontekstu.
Ograniczenia długości kontekstu ograniczają to, co agenci mogą zrobić. Przetwarzanie całych baz kodu, długich dokumentów lub rozszerzonych historii rozmów wymaga obejść. RLM-y oferują ogólną strategię wnioskowania, która przekształca limity kontekstu w miękkie ograniczenie, a nie twarde.

Najlepsze
Ranking
Ulubione
