スタンフォードからの新しい研究。 AGIの議論は誤った二分法に縛られています。 立場1:スケールの大型言語モデル(LLM)と知能が現れること。 立場2:LLMは推論できないパターンマッチャであり、行き止まりです。 本論文は第三の立場、すなわち基質と協調を提唱しています。 LLMは必要なSystem-1パターンリポジトリです。欠けているコンポーネントは、これらのパターンを選択・制約・外部目標に結びつけるSystem-2の調整層です。 著者は、その重要な洞察は釣りの比喩から来ると主張しています。海はモデルの膨大な潜在知識です。餌なしで投げると、事前の最大確率、すなわち一般的な出力を回収します。幻覚を観察する批評家は壊れたシステムを見ているわけではありません。彼らは餌のないキャストを見ている。 知的な行動には、餌やりとフィルタリングが必要です。論文はこれをUCCTという理論を通じて形式化しており、推論は相転移として現れます。この変化を支配する要因は3つあります:効果的な支持(餌の密度がターゲットコンセプトを引き寄せる)、表象ミスマッチ(事前の抵抗の度合い)、そして適応的アンカリング予算(文脈のコスト)。 アンカーの強さが閾値を超えると、行動は幻覚から目標指向のコントロールへと切り替わります。文脈内の2つの例は、数十億のトークンから学んだ算術を上書きできます。移行は徐々にではなく離散的です。 協調は現代のAIシステムにおけるボトルネックとなっています。 MACIはこの調整層を実装しています。すなわち、エージェント間の行動変調された議論、誤った議論をフィルタリングするソクラテス的判断、そして推論エピソードを超えて状態を維持するトランザクション記憶です。 メモリ部分のアイデアについては、エージェント・コンテクストエンジニアリングの論文を読んでみてください。 AGIへの道はLLMを通るものではなく、その周りを通るものではありません。問題はパターンリポジトリが十分かどうかではありません。どの協調メカニズムがパターン能力を信頼できる検証可能な推論に変換できるかということです。 論文: 私たちのアカデミーで効果的なAIエージェントの構築方法を学びましょう: