Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Стаття, на яку варто приділяти увагу.
Вона пропонує безвтратне управління контекстом (LCM), яке переосмислює те, як агенти обробляють довгі контексти.
Він перевершує Claude Code у завданнях з довгим контекстом.
Рекурсивні мовні моделі надають моделі повну автономію для написання власних скриптів пам'яті. LCM повертає цю потужність, передаючи її детермінованому движку, який стискає старі повідомлення в ієрархічний DAG, зберігаючи безвтратні вказівники на кожен оригінал. Теоретично менш виразний, але на практиці набагато надійніший.
Результати:
Їхній агент (Volt, на Opus 4.6) перевершує Claude Code на довжині *кожного* контексту — від 32K до 1M токенів на бенчмарку OOLONG. Середнє покращення на +29,2 пункта проти +24,7 у Claude Code. Розрив збільшується в довших контекстах.
Висновок — це те, що ми постійно засвоюємо з історії програмної інженерії: те, як ви керуєте тим, що бачить модель, може мати більше значення, ніж надання моделі інструментів для її управління. Кожен агентний фреймворк із стратегіями пам'яті «нехай модель сама розбереться» може будуватися на зовсім неправильній абстракції.
Стаття:
Навчіться створювати ефективних агентів ШІ в нашій академії:

Найкращі
Рейтинг
Вибране
