🚨 Todos continuam a perguntar por que os agentes de IA desmoronam no momento em que você vai além da demonstração. Este artigo do Google DeepMind, Meta, Amazon e Yale dá silenciosamente a resposta desconfortável. Os LLMs de hoje não raciocinam. Eles reagem. Eles geram texto fluente token por token, mas não planejam, refletem ou decidem quando parar e repensar. Eles soam inteligentes porque a linguagem é sua força, não porque o julgamento é. O artigo argumenta que o verdadeiro progresso vem de transformar os LLMs em raciocinadores agentes. Sistemas que podem definir metas, dividi-las em sub-metas, escolher ações, avaliar resultados e mudar de estratégia no meio do caminho. Eles formalizam o raciocínio como um loop, não como um prompt: observar → planejar → agir → refletir → atualizar estado → repetir Esta é a mudança chave. Em vez de uma longa cadeia de pensamento, o modelo mantém um estado de tarefa interno. Ele decide sobre o que pensar a seguir, não apenas como terminar a frase. É por isso que o CoT mais longo estagna. Você obtém mais palavras, não melhores decisões. Uma das percepções mais agudas: o raciocínio colapsa quando controle e raciocínio são misturados. Quando um único prompt tenta planejar, executar, criticar e finalizar, os erros se acumulam silenciosamente. Sistemas agentes separam funções. O planejamento é explícito. A execução é delimitada. A reflexão é atrasada e estruturada. O artigo mostra ganhos dramáticos apenas ao dar aos modelos: • metas intermediárias explícitas • pontos de verificação para autoavaliação • permissão para abandonar caminhos ruins...