なんてこと。。。この論文は、今年を通じてLLMの使い方において最も重要な変化かもしれません。 「大規模言語モデルからの大規模因果モデル」 これは、近似や振動、実際の因果グラフ、反事実、介入、制約チェック構造ではなく、LLMから直接完全な因果モデルを育てられることを示しています。 そして、そのやり方は本当にすごいです: 専門的な因果モデルを訓練する代わりに、科学者のようにLLMを問い直します。 →テキストから候補因果グラフを抽出する →モデルに条件付き独立性をチェックさせます →矛盾を見抜く →構造の見直し → 反事実と介入的予測の検証 →因果モデルが安定するまで反復を繰り返します その結果、これまでにないものが生まれました: これはLLM内部に構築された因果システムであり、その潜在的な世界知識を用いて存在します。 ベンチマークや合成的、現実世界、複雑な領域において、これらのLCMは局所的な相関ではなく、LLMの膨大な事前知識から引き出すため、従来の因果発見手法を上回っています。 そして反事実的な推論は? 驚くほど強い。 このモデルは、標準的なアルゴリズムが完全に失敗する「もしも」の問いに答えることができます。なぜなら、すでにアルゴリズムがデータだけで推論できない世界について「知っている」からです。 この論文は、LLMが単なるパターンマシンではなくなる未来を示唆しています。...