Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NOVAS Pesquisas de Stanford.
O debate sobre AGI está preso em uma falsa dicotomia.
Posição um: escalar LLMs e a inteligência emerge.
Posição dois: LLMs são correspondentes de padrões incapazes de raciocinar, um beco sem saída.
Este artigo argumenta a favor de uma terceira posição: Substrato mais Coordenação.
LLMs são o repositório de padrões do Sistema-1 necessário. O componente que falta é uma camada de coordenação do Sistema-2 que seleciona, restringe e vincula esses padrões a objetivos externos.
O autor postula que a chave para a compreensão vem de uma metáfora de pesca. O oceano é o vasto conhecimento latente do modelo. Pescar sem isca recupera o máximo de probabilidade anterior: saídas genéricas e comuns. Críticos que observam alucinações não estão vendo um sistema quebrado. Eles estão vendo um lançamento sem isca.
O comportamento inteligente requer iscar e filtrar. O artigo formaliza isso através do UCCT, uma teoria onde o raciocínio emerge como uma transição de fase. Três fatores governam a mudança: suporte efetivo (densidade de isca atraindo conceitos-alvo), desajuste representacional (quanto a anterior resiste) e um orçamento de ancoragem adaptativa (o custo do contexto).
Quando a força de ancoragem ultrapassa um limite, o comportamento muda de alucinação para controle orientado a objetivos. Dois exemplos em contexto podem sobrepor a aritmética aprendida a partir de bilhões de tokens. A transição é discreta, não gradual.
A coordenação é um gargalo nos sistemas de IA modernos.
MACI implementa essa camada de coordenação: debate modulado por comportamento entre agentes, julgamento socrático que filtra argumentos mal formulados e memória transacional que mantém o estado ao longo de episódios de raciocínio.
Leia o artigo sobre engenharia de contexto agente para ideias sobre a parte da memória.
O caminho para a AGI passa pelos LLMs, não ao redor deles. A questão não é se os repositórios de padrões são suficientes. É quais mecanismos de coordenação podem transformar a capacidade de padrões em raciocínio confiável e verificável.
Artigo:
Aprenda a construir agentes de IA eficazes em nossa academia:

Top
Classificação
Favoritos
