熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
斯坦福大學的新研究。
AGI 辯論陷入了一個錯誤的二分法。
立場一:擴大 LLM,智慧隨之出現。
立場二:LLM 是無法推理的模式匹配器,這是一條死胡同。
這篇論文主張第三種立場:基質加協調。
LLM 是必要的系統一模式庫。缺失的組件是一個系統二協調層,選擇、約束並將這些模式與外部目標綁定。
作者認為關鍵的見解來自於釣魚的隱喻。海洋是模型的廣闊潛在知識。沒有餌的投擲會獲得最大可能性的先驗:通用的、常見的輸出。批評者觀察到的幻覺並不是看到一個破碎的系統。他們看到的是一個未加餌的投擲。
智能行為需要餌和過濾。這篇論文通過 UCCT 形式化了這一點,這是一個推理作為相變出現的理論。三個因素決定了這一轉變:有效支持(吸引目標概念的餌密度)、表徵不匹配(先驗抵抗的程度)和自適應錨定預算(上下文的成本)。
當錨定強度超過閾值時,行為從幻覺轉變為目標導向的控制。兩個上下文中的例子可以覆蓋從數十億個標記中學到的算術。這一轉變是離散的,而非漸進的。
協調是現代 AI 系統中的瓶頸。
MACI 實現了這一協調層:代理之間的行為調節辯論,蘇格拉底式的判斷過濾不良論點,以及在推理過程中保持狀態的事務性記憶。
閱讀代理上下文工程論文以獲取有關記憶部分的想法。
通往 AGI 的道路是通過 LLM,而不是繞過它們。問題不在於模式庫是否足夠,而在於哪些協調機制可以將模式容量轉化為可靠、可驗證的推理。
論文:
在我們的學院學習如何構建有效的 AI 代理:

熱門
排行
收藏
