AIモデルは強化されていますが、その自信は確実性よりも速く成長しています。 パラメータが増えれば、システムが本当に検証できる範囲ではなく、語れる範囲を広げます。可能な答えの空間は、その答えの下の地面よりも速く広がります。モデルはデータが支持できる範囲を超えても流暢に話し続けます。 幻覚が続くのは、根本的な行為が変わっていないからです。モデルは依然として高解像度で次のトークンを予測しています。スケーリングは推測をスムーズにし、地に足のついたものではありません。モデルが実際に理解できる世界の外に漂うときも、同じようにスムーズに動き続けます。言葉遣いはより洗練されていきます。ミスを見つけるのが難しくなります。 改善されるのは真実ではありません。上達するのは説得力です。だからこそ、強いモデルは正確でなくてもより正確に感じられるのです。誤りは洞察のように見えますが、詳細をよく見るとそうです。モデルが議論をうまく形成すればするほど、その議論がそもそも真実の源に裏付けられていなかったことを忘れやすくなります。 今後の道は、ドリフトを制約するモデルの周りにシステムを構築することです。回答を固定するために取得します。フィードバックループで正直さを保つ。モデルを実際に知っている状態に戻すガードレールです。 力だけで幻覚は消せない。グラウンディングだけが効果的です。