🚨 الجميع يتساءل لماذا ينهار وكلاء الذكاء الاصطناعي بمجرد أن تتجاوز العرض التجريبي. تقدم هذه الورقة من Google DeepMind وMeta وAmazon وYale الإجابة المحرجة بهدوء. نماذج اللغة الكبيرة اليوم لا تفكر في المنطق. يتفاعلون. هم يولدون نصا سلسا رمزا تلو الآخر، لكنهم لا يخططون أو يتأملون أو يقررون متى يتوقفون ويعيدون التفكير. يبدون أذكياء لأن اللغة هي قوتهم، وليس لأن الحكم هو القوة. تجادل الورقة بأن التقدم الحقيقي يأتي من تحويل نماذج اللغة الكبيرة إلى مفكرين وكلاء. أنظمة يمكنها تحديد الأهداف، وتقسيمها إلى أهداف فرعية، واختيار الإجراءات، وتقييم النتائج، وتغيير الاستراتيجية في منتصف الرحلة. هم يرسلون الاستدلال كحلقة دائرية، وليس كمحفز: راقب خطة → → تصرف → تعكس → تحديث الحالة → التكرار هذا هو التحول المفتاح. بدلا من سلسلة أفكار طويلة واحدة، يحافظ النموذج على حالة مهمة داخلية. يقرر ما الذي يجب التفكير فيه بعد ذلك، وليس فقط كيفية إنهاء الجملة. لهذا السبب فترات الركود الأطول تتوقع. تحصل على كلمات أكثر، وليس قرارات أفضل. واحدة من أشد الرؤى: ينهار التفكير عندما يختلط السيطرة والمنطق. عندما يحاول طلب واحد التخطيط والتنفيذ والنقد وإنهاء الأحداث، تتراكم الأخطاء بصمت. الأنظمة الوكلنية تفصل الأدوار. التخطيط صريح. التنفيذ محدود بالمفرد. التأمل متأخر ومنظم. تظهر الورقة مكاسب كبيرة فقط من خلال تقديم النماذج: • الأهداف الوسيطة الصريحة • نقاط تفتيش للتقييم الذاتي • إذن بالتخلي عن المسارات السيئة...