热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
斯坦福大学的新研究。
AGI 争论陷入了一个错误的二分法。
立场一:扩展 LLM,智能随之出现。
立场二:LLM 是无法推理的模式匹配器,是死胡同。
本文主张第三种立场:基质加协调。
LLM 是必要的系统 1 模式库。缺失的组件是一个系统 2 协调层,它选择、约束并将这些模式绑定到外部目标上。
作者认为,关键的见解来自于一个钓鱼隐喻。海洋是模型广阔的潜在知识。没有诱饵的投放会获取最大可能性的先验:通用的、常见的输出。观察到幻觉的批评者并没有看到一个破碎的系统。他们看到的是一个没有诱饵的投放。
智能行为需要诱饵和过滤。本文通过 UCCT 正式化了这一点,这是一种推理作为相变出现的理论。三个因素决定了这种转变:有效支持(吸引目标概念的诱饵密度)、表征不匹配(先验抵抗的程度)和适应性锚定预算(上下文的成本)。
当锚定强度超过阈值时,行为从幻觉转变为目标导向的控制。两个上下文示例可以覆盖从数十亿个标记中学习到的算术。这个转变是离散的,而不是渐进的。
协调是现代 AI 系统中的瓶颈。
MACI 实现了这一协调层:代理之间的行为调节辩论,过滤不当论点的苏格拉底式判断,以及在推理过程中保持状态的事务性记忆。
阅读代理上下文工程论文以获取有关记忆部分的想法。
通往 AGI 的道路是通过 LLM,而不是绕过它们。问题不在于模式库是否足够,而在于哪些协调机制可以将模式能力转化为可靠、可验证的推理。
论文:
在我们的学院学习如何构建有效的 AI 代理:

热门
排行
收藏
