斯坦福大学的新研究。 AGI 争论陷入了一个错误的二分法。 立场一:扩展 LLM,智能随之出现。 立场二:LLM 是无法推理的模式匹配器,是死胡同。 本文主张第三种立场:基质加协调。 LLM 是必要的系统 1 模式库。缺失的组件是一个系统 2 协调层,它选择、约束并将这些模式绑定到外部目标上。 作者认为,关键的见解来自于一个钓鱼隐喻。海洋是模型广阔的潜在知识。没有诱饵的投放会获取最大可能性的先验:通用的、常见的输出。观察到幻觉的批评者并没有看到一个破碎的系统。他们看到的是一个没有诱饵的投放。 智能行为需要诱饵和过滤。本文通过 UCCT 正式化了这一点,这是一种推理作为相变出现的理论。三个因素决定了这种转变:有效支持(吸引目标概念的诱饵密度)、表征不匹配(先验抵抗的程度)和适应性锚定预算(上下文的成本)。 当锚定强度超过阈值时,行为从幻觉转变为目标导向的控制。两个上下文示例可以覆盖从数十亿个标记中学习到的算术。这个转变是离散的,而不是渐进的。 协调是现代 AI 系统中的瓶颈。 MACI 实现了这一协调层:代理之间的行为调节辩论,过滤不当论点的苏格拉底式判断,以及在推理过程中保持状态的事务性记忆。 阅读代理上下文工程论文以获取有关记忆部分的想法。 通往 AGI 的道路是通过 LLM,而不是绕过它们。问题不在于模式库是否足够,而在于哪些协调机制可以将模式能力转化为可靠、可验证的推理。 论文: 在我们的学院学习如何构建有效的 AI 代理: