NOVAS Pesquisas de Stanford. O debate sobre AGI está preso em uma falsa dicotomia. Posição um: escalar LLMs e a inteligência emerge. Posição dois: LLMs são correspondentes de padrões incapazes de raciocinar, um beco sem saída. Este artigo argumenta a favor de uma terceira posição: Substrato mais Coordenação. LLMs são o repositório de padrões do Sistema-1 necessário. O componente que falta é uma camada de coordenação do Sistema-2 que seleciona, restringe e vincula esses padrões a objetivos externos. O autor postula que a chave para a compreensão vem de uma metáfora de pesca. O oceano é o vasto conhecimento latente do modelo. Pescar sem isca recupera o máximo de probabilidade anterior: saídas genéricas e comuns. Críticos que observam alucinações não estão vendo um sistema quebrado. Eles estão vendo um lançamento sem isca. O comportamento inteligente requer iscar e filtrar. O artigo formaliza isso através do UCCT, uma teoria onde o raciocínio emerge como uma transição de fase. Três fatores governam a mudança: suporte efetivo (densidade de isca atraindo conceitos-alvo), desajuste representacional (quanto a anterior resiste) e um orçamento de ancoragem adaptativa (o custo do contexto). Quando a força de ancoragem ultrapassa um limite, o comportamento muda de alucinação para controle orientado a objetivos. Dois exemplos em contexto podem sobrepor a aritmética aprendida a partir de bilhões de tokens. A transição é discreta, não gradual. A coordenação é um gargalo nos sistemas de IA modernos. MACI implementa essa camada de coordenação: debate modulado por comportamento entre agentes, julgamento socrático que filtra argumentos mal formulados e memória transacional que mantém o estado ao longo de episódios de raciocínio. Leia o artigo sobre engenharia de contexto agente para ideias sobre a parte da memória. O caminho para a AGI passa pelos LLMs, não ao redor deles. A questão não é se os repositórios de padrões são suficientes. É quais mecanismos de coordenação podem transformar a capacidade de padrões em raciocínio confiável e verificável. Artigo: Aprenda a construir agentes de IA eficazes em nossa academia: