Herregud... denne artikkelen kan være det viktigste skiftet i hvordan vi bruker LLM-er i år. "Store kausale modeller fra store språkmodeller." Det viser at du kan utvikle fullstendige kausale modeller direkte ut av en LLM, ikke tilnærminger, ikke viber, faktiske årsaksgrafer, kontrafaktiske analyser, intervensjoner og begrensningskontrollerte strukturer. Og måten de gjør det på er vill: I stedet for å trene en spesialisert kausal modell, undersøker de LLM-en som en forsker: → trekke ut en kandidat årsaksgraf fra tekst → be modellen sjekke betingede uavhengigheter → oppdager motsetninger → revidere strukturen → tester kontrafaktiske og intervensjonelle prediksjoner → iterere til den kausale modellen stabiliserer seg Resultatet er noe vi aldri har hatt før: et kausalt system bygget inne i LLM-en ved hjelp av sin egen latente verdenskunnskap. På tvers av benchmarks syntetiske, virkelige, rotete domener slår disse LCM-ene klassiske årsaksmessige oppdagelsesmetoder fordi de henter fra LLM-ens enorme forhåndskunnskap i stedet for bare lokale korrelasjoner. Og den kontrafaktiske begrunnelsen? Sjokkerende sterk. Modellen kan svare på «hva om»-spørsmål som standardalgoritmer fullstendig feiler på, rett og slett fordi den allerede «vet» ting om verden som disse algoritmene ikke kan slutte seg til fra data alene. Denne artikkelen antyder en fremtid der LLM-er ikke bare er mønstermaskiner....