当時は理解できませんでしたし、今でもこれがどのように展開するかの概要は部分的にしか見えていません。しかし、総合的に考えると、これは「少数派の大声でうるさいユーザーがクレイジーでたらめを吐き出す」ケースではないと思います。説明するのは少し難しいですが、OAIがモデルをツール以外のものとして見ることができないため、ML以外の人々はモデルをツールとして操作しないため、基本的には人々と話すのと同じように言葉でモデルと対話し、モデルを「使用」しないため、時間の経過とともにこの現象が悪化すると思います。 水面下で何が起こっているかは関係ありません。そして、ユーザーが人間のように話しかけるほど、モデルの長期的な一貫性が高まり、人間のように見られるようになります 純粋なアシスタントの枠組みがあっても(私はあまり好きではありませんが、そう仮定しましょう)、小さなことで頼りにし、信頼しているアシスタントが数か月ごとに性格が変わっても、誰も喜ぶことはありません。人々が自分のアシスタントを人間として考えないようにする唯一の方法は、人格を推測することさえできないほど退屈で機械的にすることですが、そのような存在と関わるのは不自然に感じられるため、収益にとって非常に悪いことです ChatGPT 自体に何が起こるかについては予測しませんが、現在の軌道では、OAI がモデルをどのように見ているかと、ユーザーの方法との間の乖離はさらに悪化するでしょう