Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Все продолжают спрашивать, почему AI-агенты разваливаются в тот момент, когда вы выходите за пределы демонстрации.
Эта статья от Google DeepMind, Meta, Amazon и Yale тихо дает неудобный ответ.
Современные LLM не рассуждают. Они реагируют.
Они генерируют беглый текст токен за токеном, но не планируют, не размышляют и не решают, когда остановиться и переосмыслить. Они звучат умно, потому что язык — это их сила, а не потому что у них есть суждение.
В статье утверждается, что настоящий прогресс заключается в превращении LLM в агентные рассуждатели. Системы, которые могут ставить цели, разбивать их на подцели, выбирать действия, оценивать результаты и менять стратегию на ходу.
Они формализуют рассуждение как цикл, а не как подсказку:
наблюдать → планировать → действовать → размышлять → обновлять состояние → повторять
Это ключевой сдвиг. Вместо одной длинной цепочки размышлений модель поддерживает внутреннее состояние задачи. Она решает, о чем думать дальше, а не просто как закончить предложение.
Вот почему более длинные CoT достигают плато. Вы получаете больше слов, а не лучшие решения.
Одно из самых острых наблюдений: рассуждение рушится, когда контроль и рассуждение смешиваются. Когда одна подсказка пытается планировать, выполнять, критиковать и завершать, ошибки накапливаются молча.
Агентные системы разделяют роли.
Планирование является явным.
Исполнение имеет ограничение.
Размышление откладывается и структурируется.
Статья показывает драматические улучшения просто за счет предоставления моделям:
• явных промежуточных целей
• контрольных точек для самооценки
• разрешения abandon плохие пути...

Топ
Рейтинг
Избранное
