ベイズ推論は先行推論の支持を保持します。したがって、許容可能な仮説の空間を変える過程はベイズの枠組みの外に位置します。これはすべての固定支持推論にも当てはまります。ベイズ法はあくまで標準的な例に過ぎません。
このベイズ推論の問題に対する伝統的な解決策は、すべての計算可能仮説を支持する開始事前比(すなわちソロモノフ事前験)を選び、そこから許容可能性の問題を回避し、そこから絞り込むことです。
このアプローチの問題は、ソロモノフ事前分布が計算不可能であることです。実現可能な近似は有限仮説空間に限定されなければならず、そこで元の問題が戻ります。
階層モデルはベイズモデル還元や類似の手法を可能にしますが、最終的に階層の最上層にはそれを超えることのない固定されたサポートがあります。
では、支持を拡大する学習が、ベイズ推論を含むいかなる固定支持手法でも完全に特徴付けられないなら、それはどのような推論なのでしょうか?
もし摂動がプロセスの支援外にあるなら、それを更新の証拠として処理することはできません。代わりに、摂動が過程自体を因果的に直接再構築したときに学習が起こらなければなりません。
支持拡大分散は、環境が現在測度ゼロを割り当てる次元で摂動させることから生じます。モデルではなく、基質の自然勾配、すなわち学習を行っています。
エージェントの信念は必然的に自らのコントロール下にある(GDI論文が「主体性」と呼ぶもの)か、環境(GDI論文が「可塑性」と呼ぶもの)のどちらかにあります。
主体性がなければ、プロセスは自身や世界の中で成功裏に行動し、その持続性を維持することはできません。可塑性がなければ、モデルは信念の隙間にある未知の角度や現実の隠された次元を見つけることができず、世界が変わればモデルは死んでしまいます。
(いくつかのスレッドで言語ワークショップを手伝ってくれたClaude Opusに感謝します。元のスレッドよりもずっと緻密です!)
142