Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Всі постійно запитують, чому агенти ШІ розпадаються, щойно ви проходите демо.
Ця стаття від Google DeepMind, Meta, Amazon і Yale тихо дає незручну відповідь.
Сучасні LLM не міркують. Вони реагують.
Вони генерують вільний текстовий токен за токеном, але не планують, не розмірковують і не вирішують, коли зупинитися і переосмислити. Вони звучать розумно, бо мова — їхня сила, а не тому, що осуд — це їхня сила.
У статті стверджується, що реальний прогрес відбувається завдяки перетворенню LLM на агентних міркувальників. Системи, які можуть ставити цілі, розбивати їх на підцілі, обирати дії, оцінювати результати та змінювати стратегію під час польоту.
Вони формалізують мислення як цикл, а не як підказку:
Спостерігайте → план → діяти → відображати стан оновлення → → повторювати
Це ключовий момент. Замість одного довгого ланцюга думок модель підтримує внутрішній стан завдання. Вона вирішує, про що думати далі, а не лише як закінчити речення.
Ось чому довший CoT фіксує плато. Ти отримуєш більше слів, а не кращі рішення.
Одне з найгостріших усвідомлень: мислення руйнується, коли контроль і мислення змішані. Коли один запит намагається спланувати, виконати, критикувати та завершити, помилки нарощуються мовчки.
Агентні системи розділяють ролі.
Планування є чітким.
Виконання має масштаб.
Рефлексія відкладена і структурована.
Стаття демонструє значний приріст лише завдяки наведенню моделей:
• явні проміжні цілі
• контрольні точки для самооцінки
• дозвіл залишати погані шляхи...

Найкращі
Рейтинг
Вибране
