斯坦福大學的新研究。 AGI 辯論陷入了一個錯誤的二分法。 立場一:擴大 LLM,智慧隨之出現。 立場二:LLM 是無法推理的模式匹配器,這是一條死胡同。 這篇論文主張第三種立場:基質加協調。 LLM 是必要的系統一模式庫。缺失的組件是一個系統二協調層,選擇、約束並將這些模式與外部目標綁定。 作者認為關鍵的見解來自於釣魚的隱喻。海洋是模型的廣闊潛在知識。沒有餌的投擲會獲得最大可能性的先驗:通用的、常見的輸出。批評者觀察到的幻覺並不是看到一個破碎的系統。他們看到的是一個未加餌的投擲。 智能行為需要餌和過濾。這篇論文通過 UCCT 形式化了這一點,這是一個推理作為相變出現的理論。三個因素決定了這一轉變:有效支持(吸引目標概念的餌密度)、表徵不匹配(先驗抵抗的程度)和自適應錨定預算(上下文的成本)。 當錨定強度超過閾值時,行為從幻覺轉變為目標導向的控制。兩個上下文中的例子可以覆蓋從數十億個標記中學到的算術。這一轉變是離散的,而非漸進的。 協調是現代 AI 系統中的瓶頸。 MACI 實現了這一協調層:代理之間的行為調節辯論,蘇格拉底式的判斷過濾不良論點,以及在推理過程中保持狀態的事務性記憶。 閱讀代理上下文工程論文以獲取有關記憶部分的想法。 通往 AGI 的道路是通過 LLM,而不是繞過它們。問題不在於模式庫是否足夠,而在於哪些協調機制可以將模式容量轉化為可靠、可驗證的推理。 論文: 在我們的學院學習如何構建有效的 AI 代理: