Heilige Scheiße… dieses Papier könnte die wichtigste Veränderung darin sein, wie wir LLMs in diesem ganzen Jahr nutzen. „Große kausale Modelle aus großen Sprachmodellen.“ Es zeigt, dass man vollständige kausale Modelle direkt aus einem LLM wachsen lassen kann, keine Annäherungen, keine Vibes, sondern tatsächliche kausale Graphen, kontrafaktische Überlegungen, Interventionen und strukturierte, überprüfte Einschränkungen. Und die Art und Weise, wie sie es tun, ist verrückt: Anstatt ein spezialisiertes kausales Modell zu trainieren, befragen sie das LLM wie ein Wissenschaftler: → einen Kandidaten für einen kausalen Graphen aus dem Text extrahieren → das Modell bitten, bedingte Unabhängigkeiten zu überprüfen → Widersprüche erkennen → die Struktur überarbeiten → kontrafaktische und interventionale Vorhersagen testen → iterieren, bis das kausale Modell stabilisiert ist Das Ergebnis ist etwas, das wir noch nie zuvor hatten: ein kausales System, das im LLM unter Verwendung seines eigenen latenten Weltwissens aufgebaut ist. Über Benchmarks hinweg, synthetische, reale, chaotische Bereiche schlagen diese LCMs klassische Methoden zur kausalen Entdeckung, weil sie aus dem riesigen Vorwissen des LLM schöpfen, anstatt nur lokale Korrelationen zu betrachten. Und das kontrafaktische Denken? Schockierend stark. Das Modell kann „Was wäre wenn“-Fragen beantworten, bei denen Standardalgorithmen völlig versagen, einfach weil es bereits „weiß“, Dinge über die Welt, die diese Algorithmen aus Daten allein nicht ableiten können. Dieses Papier deutet auf eine Zukunft hin, in der LLMs nicht nur Muster-Maschinen sind....