Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Tutti continuano a chiedere perché gli agenti AI si disintegrano nel momento in cui si supera la demo.
Questo documento di Google DeepMind, Meta, Amazon e Yale fornisce silenziosamente la risposta scomoda.
I LLM di oggi non ragionano. Reagiscono.
Generano testo fluente token per token, ma non pianificano, riflettono o decidono quando fermarsi e ripensare. Sembrano intelligenti perché il linguaggio è il loro punto di forza, non perché il giudizio lo sia.
Il documento sostiene che il vero progresso deriva dal trasformare i LLM in ragionatori agentici. Sistemi che possono fissare obiettivi, suddividerli in sotto-obiettivi, scegliere azioni, valutare risultati e cambiare strategia in volo.
Formalizzano il ragionamento come un ciclo, non come un prompt:
osserva → pianifica → agisci → rifletti → aggiorna stato → ripeti
Questo è il cambiamento chiave. Invece di una lunga catena di pensieri, il modello mantiene uno stato interno del compito. Decide su cosa pensare dopo, non solo come finire la frase.
Ecco perché i CoT più lunghi si appiattiscono. Ottieni più parole, non migliori decisioni.
Una delle intuizioni più acute: il ragionamento collassa quando controllo e ragionamento sono mescolati. Quando un singolo prompt cerca di pianificare, eseguire, criticare e finalizzare, gli errori si accumulano silenziosamente.
I sistemi agentici separano i ruoli.
La pianificazione è esplicita.
L'esecuzione è delimitata.
La riflessione è ritardata e strutturata.
Il documento mostra guadagni drammatici semplicemente dando ai modelli:
• obiettivi intermedi espliciti
• checkpoint per l'auto-valutazione
• permesso di abbandonare percorsi sbagliati...

Principali
Ranking
Preferiti
