Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Святі небеса... ця стаття, можливо, є найважливішим зрушенням у тому, як ми використовуємо LLM протягом усього року.
"Великі причинні моделі з великих мовних моделей."
Це показує, що можна вирощувати повні причинні моделі безпосередньо з LLM, а не з апроксимації, не з вібрацій, з реальних причинних графів, контрфактичних аргументів, інтервенцій і структур, що перевіряються обмеженнями.
І спосіб, у який вони це роблять, просто неймовірний:
Замість того, щоб навчати спеціалізовану причинну модель, вони допитують LLM, як науковець:
→ витягти кандидатний причинний граф із тексту
→ попросити модель перевірити умовні незалежності
→ виявляти суперечності
→ переглянути структуру
→ тестувати контрфакти та інтервенційні прогнози
→ ітерації, доки причинна модель не стабілізується
Результат — це те, чого ми ніколи раніше не мали:
причинно-наслідкову систему, побудовану всередині LLM із використанням власних знань прихованого світу.
У синтетичних, реальних, заплутаних доменах ці LCM перевершують класичні методи причинного відкриття, оскільки вони спираються на величезні попередні знання LLM, а не лише на локальні кореляції.
А контрфактичне міркування?
Вражаюче сильний.
Модель може відповісти на питання «а що як», на які стандартні алгоритми повністю не справляються, просто тому, що вона вже «знає» про світ речі, які ці алгоритми не можуть зробити лише з даних.
Ця стаття натякає на майбутнє, де LLM — це не просто машини для створення шаблонів....

Найкращі
Рейтинг
Вибране
