天哪……这篇论文可能是我们今年使用LLM的最重要转变。 “从大型语言模型中提取的大型因果模型。” 它展示了你可以直接从LLM中生成完整的因果模型,而不是近似值,不是感觉,而是真正的因果图、反事实、干预和约束检查结构。 而他们的做法真是疯狂: 而不是训练一个专门的因果模型,他们像科学家一样审问LLM: → 从文本中提取候选因果图 → 让模型检查条件独立性 → 检测矛盾 → 修订结构 → 测试反事实和干预预测 → 迭代直到因果模型稳定 结果是我们从未拥有过的东西: 一个在LLM内部构建的因果系统,利用其自身的潜在世界知识。 在基准测试、合成、真实世界、混乱领域中,这些LCM超越了经典的因果发现方法,因为它们利用了LLM的庞大先验知识,而不仅仅是局部相关性。 而反事实推理呢? 令人震惊的强大。 该模型可以回答“如果”问题,而标准算法完全无法做到这一点,仅仅因为它已经“知道”一些关于世界的事情,而这些算法无法仅从数据中推断出来。 这篇论文暗示了一个未来,在这个未来中,LLM不仅仅是模式机器。...