Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NOVA pesquisa de Stanford.
O debate sobre a AGI está preso em uma falsa dicotomia.
Posição um: scales LLMs e surge inteligência.
Posição dois: LLMs são combinadores de padrões incapazes de raciocinar, um beco sem saída.
Este artigo defende uma terceira posição: Substrato mais Coordenação.
LLMs são o repositório de padrões System-1 necessário. O componente ausente é uma camada de coordenação do System-2 que seleciona, restringe e vincula esses padrões a objetivos externos.
O autor postula que o insight principal vem de uma metáfora de pesca. O oceano é o vasto conhecimento latente do modelo. Lançar sem isca recupera a máxima probabilidade de prévio: saídas genéricas e comuns. Críticos que observam alucinações não estão vendo um sistema quebrado. Eles estão vendo um elenco sem provocações.
Comportamento inteligente requer isca e filtragem. O artigo formaliza isso por meio do UCCT, uma teoria onde o raciocínio surge como uma transição de fase. Três fatores governam a mudança: suporte efetivo (densidade de isca atraindo conceitos-alvo), descompasso representacional (quanto resiste o anterior) e um orçamento de ancoragem adaptativa (o custo do contexto).
Quando a força de ancoragem ultrapassa um limiar, o comportamento muda de alucinação para controle direcionado a objetivos. Dois exemplos em contexto podem sobrepor a aritmética aprendida a partir de bilhões de tokens. A transição é discreta, não gradual.
A coordenação é um gargalo nos sistemas modernos de IA.
O MACI implementa essa camada de coordenação: debate modulado pelo comportamento entre agentes, julgamento socrático que filtra argumentos mal colocados e memória transacional que mantém o estado ao longo dos episódios de raciocínio.
Leia o artigo de engenharia de contexto agential para ideias sobre a parte da memória.
O caminho para a AGI passa pelos LLMs, não ao redor deles. A questão não é se repositórios de padrões são suficientes. É sobre quais mecanismos de coordenação podem transformar a capacidade de padrões em raciocínio confiável e verificável.
Papel:
Aprenda a construir agentes de IA eficazes em nossa academia:

Melhores
Classificação
Favoritos
