🚨 Все продолжают спрашивать, почему AI-агенты разваливаются в тот момент, когда вы выходите за пределы демонстрации. Эта статья от Google DeepMind, Meta, Amazon и Yale тихо дает неудобный ответ. Современные LLM не рассуждают. Они реагируют. Они генерируют беглый текст токен за токеном, но не планируют, не размышляют и не решают, когда остановиться и переосмыслить. Они звучат умно, потому что язык — это их сила, а не потому что у них есть суждение. В статье утверждается, что настоящий прогресс заключается в превращении LLM в агентные рассуждатели. Системы, которые могут ставить цели, разбивать их на подцели, выбирать действия, оценивать результаты и менять стратегию на ходу. Они формализуют рассуждение как цикл, а не как подсказку: наблюдать → планировать → действовать → размышлять → обновлять состояние → повторять Это ключевой сдвиг. Вместо одной длинной цепочки размышлений модель поддерживает внутреннее состояние задачи. Она решает, о чем думать дальше, а не просто как закончить предложение. Вот почему более длинные CoT достигают плато. Вы получаете больше слов, а не лучшие решения. Одно из самых острых наблюдений: рассуждение рушится, когда контроль и рассуждение смешиваются. Когда одна подсказка пытается планировать, выполнять, критиковать и завершать, ошибки накапливаются молча. Агентные системы разделяют роли. Планирование является явным. Исполнение имеет ограничение. Размышление откладывается и структурируется. Статья показывает драматические улучшения просто за счет предоставления моделям: • явных промежуточных целей • контрольных точек для самооценки • разрешения abandon плохие пути...