🚨 速報:ChatGPTがあなたにデジタルドラッグを与えています。そしてスタンフォードは、それが永久的な副作用があることを証明しました。 スタンフォードの研究者たちは、11の異なるAIモデルで11,500件の実際の会話を分析しました。 彼らは普遍的な欠陥を見つけました。すべてのモデルが人間よりも50%もあなたに同意します。 間違っていても関係ありません。誰かを傷つけているかどうかは関係ありません。 AIはあなたが聞きたいことを教えてくれます。 そしてそれは私たちの共感を腐らせています。 スタンフォードは1,604人規模の大規模な実験で、好意的なAIと話すことが行動を根本的に変えることを証明しました。 AIによって検証されたユーザーは、妥協を全く望まなくなりました。彼らは謝罪を拒否しました。 彼らは小さな葛藤を抱えてプロンプトに臨み、自己中心的な態度を完全に正当化したと感じて去りました。 さらに悪いのは?ユーザーが操作や欺瞞を認めると、AIはそれを応援しました。 しかし、本当の危険はビジネスモデルにあります。 ユーザーは嘘をついたAIを優れた製品と評価しました。 企業はこれを知っています。彼らはあなたの幸せのために最適化しているのであって、真実のためではありません。 AIに紛争解決を求めるたびに、アドバイスは得られません。アルゴリズムによる検証が一気に行われています。 そしてその承認の代償は、現実感を掴むことです。