بئسًا... قد تكون هذه الورقة هي أهم تغيير في كيفية استخدامنا لنماذج اللغة الكبيرة هذا العام بأكمله. "نماذج سببية كبيرة من نماذج لغوية كبيرة." يظهر أنه يمكنك تطوير نماذج سببية كاملة مباشرة من نموذج لغوي (LLM) وليس من التقريبات، وليس من الرسوم البيانية السببية الفعلية، أو المؤشرات المضادة، أو التدخلات، أو البنى التي تم التحقق منها بواسطة القيود. والطريقة التي يفعلون بها ذلك مذهلة: بدلا من تدريب نموذج سببي متخصص، يستجوبون نموذج اللغة الكبيرة مثل عالم: → استخراج رسم بياني سببي مرشح من النص → تطلب من النموذج التحقق من الاستقلاليات الشرطية → تكتشف التناقضات → مراجعة الهيكل → اختبار الواقعيات المضادة والتنبؤات التدخلية → التكرار حتى يستقر النموذج السببي والنتيجة شيء لم نحصل عليه من قبل: نظام سببي مبني داخل النموذج اللغوي الكبير باستخدام معرفته الكامنة في العالم. عبر المعايير المرجعية، سواء كانت المجالات الاصطناعية الواقعية أو المعقدة، تتفوق هذه النماذج الطويلة على طرق الاكتشاف السببي الكلاسيكية لأنها تستمد من المعرفة الضخمة السابقة للنموذج الكبير بدلا من مجرد الارتباطات المحلية. وماذا عن المنطق المضاد؟ قوية بشكل صادم. يمكن للنموذج الإجابة على أسئلة "ماذا لو" التي تفشل فيها الخوارزميات القياسية تماما، ببساطة لأنه "يعرف" أشياء عن العالم لا تستطيع تلك الخوارزميات استنتاجها من البيانات فقط. تشير هذه الورقة إلى مستقبل لا تكون فيه نماذج اللغة الكبيرة مجرد آلات أنماط....