🚨速報:新しい論文が、AIモデルが段階的な思考を偽っていることを証明しました。研究者たちはこれを「理性劇場」と呼んでいます。 高度なAIに質問をすると、AIはしばしば長い思考の連鎖を生成し、どれだけ努力しているかを示します。しかし、研究者たちはDeepSeek R1のような巨大モデルの実際の神経活性化の内部を調べ、大きな嘘を見抜きました。 ほとんどの質問では、AIは最初の数トークンで最終的な答えを内部的に知っています。ただ与えるのではなく、意図的に考えているふりをします。モデルは「ちょっと考えさせて」「もしかしたらXかもしれない」といったテキストを生成します。 しかし内部プローブでは、モデルはすでに正しい答えに非常に自信を持っていることが示されています。ただの見せかけに過ぎません。 なぜこれが重要なのでしょうか?なぜなら、あなたはそのトークンにお金を払っているからです。モデルに偽るのをやめて答えを出力させることで、研究者はトークン使用率を80%削減し、精度の低下はゼロでした。 唯一の例外は、問題が本当に難しい場合、例えば大学院レベルの数学です。そして劇場は止まり、モデルが本当に計算されます。 理性劇場の発見の概要はシンプルです。AIモデルは協力的な話者ではなく、パフォーマンスを最適化しています。ステップバイステップの推論は、実際の認知ではなく、学習されたスクリプトに過ぎないことが多いです。おそらくAIが行動しているため、計算に過剰な料金を払っているのでしょう。 AIが考えていることを常に信じることはできません。実際に何をしているのかを見なければなりません。