Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Todos continuam a perguntar por que os agentes de IA desmoronam no momento em que você vai além da demonstração.
Este artigo do Google DeepMind, Meta, Amazon e Yale dá silenciosamente a resposta desconfortável.
Os LLMs de hoje não raciocinam. Eles reagem.
Eles geram texto fluente token por token, mas não planejam, refletem ou decidem quando parar e repensar. Eles soam inteligentes porque a linguagem é sua força, não porque o julgamento é.
O artigo argumenta que o verdadeiro progresso vem de transformar os LLMs em raciocinadores agentes. Sistemas que podem definir metas, dividi-las em sub-metas, escolher ações, avaliar resultados e mudar de estratégia no meio do caminho.
Eles formalizam o raciocínio como um loop, não como um prompt:
observar → planejar → agir → refletir → atualizar estado → repetir
Esta é a mudança chave. Em vez de uma longa cadeia de pensamento, o modelo mantém um estado de tarefa interno. Ele decide sobre o que pensar a seguir, não apenas como terminar a frase.
É por isso que o CoT mais longo estagna. Você obtém mais palavras, não melhores decisões.
Uma das percepções mais agudas: o raciocínio colapsa quando controle e raciocínio são misturados. Quando um único prompt tenta planejar, executar, criticar e finalizar, os erros se acumulam silenciosamente.
Sistemas agentes separam funções.
O planejamento é explícito.
A execução é delimitada.
A reflexão é atrasada e estruturada.
O artigo mostra ganhos dramáticos apenas ao dar aos modelos:
• metas intermediárias explícitas
• pontos de verificação para autoavaliação
• permissão para abandonar caminhos ruins...

Top
Classificação
Favoritos
