Черт возьми… эта статья может стать самым важным изменением в том, как мы используем LLM в этом году. "Большие причинные модели из больших языковых моделей." Она показывает, что можно вырастить полные причинные модели прямо из LLM, а не приближения, не ощущения, а настоящие причинные графы, контрфакты, интервенции и структуры с проверенными ограничениями. И способ, которым они это делают, дикий: Вместо того чтобы обучать специализированную причинную модель, они допрашивают LLM как ученые: → извлекают кандидатный причинный граф из текста → просят модель проверить условные независимости → обнаруживают противоречия → пересматривают структуру → тестируют контрфакты и интервенционные предсказания → итерация до тех пор, пока причинная модель не стабилизируется Результат — это то, чего у нас никогда не было раньше: причинная система, построенная внутри LLM, используя его собственные скрытые знания о мире. На всех бенчмарках — синтетических, реальных, запутанных областях — эти LCM превосходят классические методы причинного открытия, потому что они используют обширные предварительные знания LLM, а не просто локальные корреляции. А контрфактическое рассуждение? Удивительно сильное. Модель может отвечать на вопросы "что если", на которые стандартные алгоритмы полностью не справляются, просто потому, что она уже "знает" вещи о мире, которые эти алгоритмы не могут вывести только из данных. Эта статья намекает на будущее, где LLM не просто машины для распознавания шаблонов....