Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Toată lumea se întreabă de ce agenții AI se destramă în momentul în care treci de demo.
Această lucrare de la Google DeepMind, Meta, Amazon și Yale oferă discret răspunsul incomod.
LLM-urile de astăzi nu raționează. Ei reacționează.
Ele generează text fluent token cu token, dar nu planifică, nu reflectă și nu decide când să se oprească și să regândească. Par deștepți pentru că limbajul este punctul lor forte, nu pentru că judecata este.
Lucrarea susține că progresul real vine din transformarea LLM-urilor în raționatori agențici. Sisteme care pot stabili obiective, le pot împărți în subobiective, alege acțiuni, evalua rezultatele și schimba strategia în timpul zborului.
Ei formalizează raționamentul ca pe o buclă, nu ca pe un prompt:
Respectă → planul → acționează → reflectă → actualizează starea → repetă
Aceasta este schimbarea cheie. În loc de un singur lanț lung de gânduri, modelul menține o stare internă de sarcină. Decide la ce să te gândești mai departe, nu doar cum să termini propoziție.
De aceea platourile mai lungi ale CoT. Obții mai multe cuvinte, nu decizii mai bune.
Una dintre cele mai ascuțite observații: raționamentul se prăbușește atunci când controlul și raționamentul sunt amestecate. Când un singur prompt încearcă să planifice, să execuțe, să critice și să finalizeze, erorile se acumulează în tăcere.
Sistemele agențice separă rolurile.
Planificarea este explicită.
Execuția este supravegheată.
Reflecția este întârziată și structurată.
Lucrarea arată câștiguri dramatice doar oferind modele:
• obiective intermediare explicite
• puncte de control pentru autoevaluare
• permisiunea de a abandona căile rele...

Limită superioară
Clasament
Favorite
