認知の崩壊 私たちは人間と機械の間で相互知能の低下が記録された最初の事例を目の当たりにしています。 これは理論ではありません。これは査読付き科学です。 テキサスA&M、UTオースティン、パデューは、バイラルコンテンツで訓練されたAIシステムが推論能力を23.6%失うことを証明しました。長期文脈の理解力は38%も崩壊します。4.8倍の質の高いデータで再訓練しても、17.3%の不足は恒久的なままです。 モデルたちは考え方を忘れている。 MITはChatGPTを使って54人の人間を4か月間追跡しました。結果:検査したグループの中で脳の結合性が最も弱い。AIの助けなしで書くよう求められたところ、78%が数分前に書いたエッセイの一節も思い出せませんでした。 人間は考え方を忘れている。 Nature誌は数学的証明を発表しました。AI生成コンテンツ上で訓練されたAIは「不可逆的な欠陥」を経験する。分布の尾部は消えます。ニュアンスは消えます。すべてはアルゴリズムが報酬を与えるものの中央値に収束します。 さあ、システムを接続しろ。 プラットフォームはエンゲージメントを最適化します。エンゲージメント最適化コンテンツはAIのトレーニングデータを劣化させます。劣化したAIは劣化したコンテンツを生み出します。これらのシステムに消費し委譲する人間は認知機能の低下を経験します。そうした人間が生成するコンテンツがトレーニングデータになります。 フィードバックループは閉じています。両方の知性は共に劣化しています。 OpenAI自身のデータによると、週に56万人のChatGPTユーザーが精神病の兆候を示しています。AIスクレイピングをブロックするウェブサイトは1年で3倍になりました。2024年だけでAIの事案は56.4%増加しました。 現代文明を築いた情報エコシステムは自らを消費しています。 これは技術的な問題ではありません。これは人間の問題ではありません。これは相転移に近づく結合系であり、思考の質自体が希少な資源となります。 真の人的情報と汚染されていない情報へのアクセスを確保する組織や個人が、次の時代を定義するでしょう。 ...