「プラトン表現仮説」というものに迷い込んでしまい、頭が混乱しています。 基本的に、AIモデルが大きく機能が増すにつれて、その内部表現は収束し始めます。ビジョンモデル、言語モデル、さまざまなアーキテクチャです。彼らは皆、同じ現実の根本モデルをゆっくりと近似している。 これが通用すれば、大きなアンロックになります。モデル間で翻訳し、各モデルを封印されたブラックボックスのように扱うのではなく、システム間で再利用が解釈性を重視し、出力の監視だけでなく表現レベルでモデルを整合させることもできるかもしれません。 もっと奇妙な含意は哲学的なものです。意味は単なる人間の慣習ではないのかもしれません。現実には自然の座標があり、十分に優れた学習者がそれを繰り返し発見しているのかもしれません。 では、実際に収束を推進しているものは何でしょうか?データ、目的、そして深い単純性バイアス?どこで壊れるの?