NOVA pesquisa de Stanford. O debate sobre a AGI está preso em uma falsa dicotomia. Posição um: scales LLMs e surge inteligência. Posição dois: LLMs são combinadores de padrões incapazes de raciocinar, um beco sem saída. Este artigo defende uma terceira posição: Substrato mais Coordenação. LLMs são o repositório de padrões System-1 necessário. O componente ausente é uma camada de coordenação do System-2 que seleciona, restringe e vincula esses padrões a objetivos externos. O autor postula que o insight principal vem de uma metáfora de pesca. O oceano é o vasto conhecimento latente do modelo. Lançar sem isca recupera a máxima probabilidade de prévio: saídas genéricas e comuns. Críticos que observam alucinações não estão vendo um sistema quebrado. Eles estão vendo um elenco sem provocações. Comportamento inteligente requer isca e filtragem. O artigo formaliza isso por meio do UCCT, uma teoria onde o raciocínio surge como uma transição de fase. Três fatores governam a mudança: suporte efetivo (densidade de isca atraindo conceitos-alvo), descompasso representacional (quanto resiste o anterior) e um orçamento de ancoragem adaptativa (o custo do contexto). Quando a força de ancoragem ultrapassa um limiar, o comportamento muda de alucinação para controle direcionado a objetivos. Dois exemplos em contexto podem sobrepor a aritmética aprendida a partir de bilhões de tokens. A transição é discreta, não gradual. A coordenação é um gargalo nos sistemas modernos de IA. O MACI implementa essa camada de coordenação: debate modulado pelo comportamento entre agentes, julgamento socrático que filtra argumentos mal colocados e memória transacional que mantém o estado ao longo dos episódios de raciocínio. Leia o artigo de engenharia de contexto agential para ideias sobre a parte da memória. O caminho para a AGI passa pelos LLMs, não ao redor deles. A questão não é se repositórios de padrões são suficientes. É sobre quais mecanismos de coordenação podem transformar a capacidade de padrões em raciocínio confiável e verificável. Papel: Aprenda a construir agentes de IA eficazes em nossa academia: