Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Iedereen blijft vragen waarom AI-agenten uit elkaar vallen op het moment dat je voorbij de demo gaat.
Dit paper van Google DeepMind, Meta, Amazon en Yale geeft stilletjes het ongemakkelijke antwoord.
De huidige LLM's redeneren niet. Ze reageren.
Ze genereren vloeiende tekst token voor token, maar ze plannen, reflecteren of beslissen niet wanneer ze moeten stoppen en heroverwegen. Ze klinken slim omdat taal hun kracht is, niet omdat oordeel dat is.
Het paper stelt dat echte vooruitgang komt van het omvormen van LLM's tot agentische redenaars. Systemen die doelen kunnen stellen, deze kunnen opsplitsen in subdoelen, acties kunnen kiezen, uitkomsten kunnen evalueren en strategieën halverwege kunnen aanpassen.
Ze formaliseren redeneren als een lus, niet als een prompt:
observeer → plan → handel → reflecteer → update staat → herhaal
Dit is de sleutelverschuiving. In plaats van één lange keten van gedachten, behoudt het model een interne taakstaat. Het beslist waar het de volgende keer over moet denken, niet alleen hoe het de zin moet afmaken.
Dat is waarom langere CoT plateau's. Je krijgt meer woorden, niet betere beslissingen.
Een van de scherpste inzichten: redeneren stort in wanneer controle en redeneren worden gemengd. Wanneer een enkele prompt probeert te plannen, uit te voeren, te bekritiseren en af te ronden, stapelen fouten zich stilletjes op.
Agentische systemen scheiden rollen.
Plannen is expliciet.
Uitvoering is afgebakend.
Reflectie is vertraagd en gestructureerd.
Het paper toont dramatische winsten alleen al door modellen te geven:
• expliciete tussenliggende doelen
• checkpoints voor zelfevaluatie
• toestemming om slechte paden te verlaten...

Boven
Positie
Favorieten
