Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"Rekursive Sprachmodelle"
Eine potenziell große Richtung für LLMs im Jahr 2026 von MIT-Forschern
In ihrem Ansatz wird ein Prompt nicht direkt "ausgeführt", sondern als Variable in einem externen Python REPL gespeichert, und das Sprachmodell schreibt Code, um diesen langen String zu inspizieren/schneiden/dekomponieren, beobachtet die Ausführungsausgaben und konstruiert dann Unteraufgaben, bei denen es rekursiv ein LLM nur auf die relevanten Snippets aufruft. Das Ergebnis wird zusammengefügt, wenn der rekursive Prozess endet.
So kann es Aufgaben mit über 10 Millionen Tokens mit weit weniger "Kontextverfall" und oft geringeren Kosten als Zusammenfassungen/RAG lösen und verwandelt das Skalieren von Langkontexten in einen Inferenzzeit-Algorithmus, anstatt nur ein größeres Kontextfenster zu sein.

Top
Ranking
Favoriten
