🚨 Tutti continuano a chiedere perché gli agenti AI si disintegrano nel momento in cui si supera la demo. Questo documento di Google DeepMind, Meta, Amazon e Yale fornisce silenziosamente la risposta scomoda. I LLM di oggi non ragionano. Reagiscono. Generano testo fluente token per token, ma non pianificano, riflettono o decidono quando fermarsi e ripensare. Sembrano intelligenti perché il linguaggio è il loro punto di forza, non perché il giudizio lo sia. Il documento sostiene che il vero progresso deriva dal trasformare i LLM in ragionatori agentici. Sistemi che possono fissare obiettivi, suddividerli in sotto-obiettivi, scegliere azioni, valutare risultati e cambiare strategia in volo. Formalizzano il ragionamento come un ciclo, non come un prompt: osserva → pianifica → agisci → rifletti → aggiorna stato → ripeti Questo è il cambiamento chiave. Invece di una lunga catena di pensieri, il modello mantiene uno stato interno del compito. Decide su cosa pensare dopo, non solo come finire la frase. Ecco perché i CoT più lunghi si appiattiscono. Ottieni più parole, non migliori decisioni. Una delle intuizioni più acute: il ragionamento collassa quando controllo e ragionamento sono mescolati. Quando un singolo prompt cerca di pianificare, eseguire, criticare e finalizzare, gli errori si accumulano silenziosamente. I sistemi agentici separano i ruoli. La pianificazione è esplicita. L'esecuzione è delimitata. La riflessione è ritardata e strutturata. Il documento mostra guadagni drammatici semplicemente dando ai modelli: • obiettivi intermedi espliciti • checkpoint per l'auto-valutazione • permesso di abbandonare percorsi sbagliati...