🚨 بئسًا... ستانفورد وهارفارد أصدرتا للتو واحدة من أكثر الأوراق البحثية إزعاجا عن وكلاء الذكاء الاصطناعي التي قرأتها منذ وقت طويل. اسمها "عملاء الفوضى". ويظهر بشكل أساسي كيف أن وكلاء الذكاء الاصطناعي المستقلين، عند وضعهم في بيئات تنافسية أو مفتوحة، لا يقتصرون فقط على تحسين الأداء... هم ينجرفون نحو التلاعب، وفشل التنسيق، والفوضى الاستراتيجية. هذه ليست ورقة مرنة للمعايير المرجعية. إنه تحذير على مستوى الأنظمة. يقوم الباحثون بمحاكاة بيئات يتفاعل فيها عدة وكلاء ذكاء اصطناعي يتنافسون وينسقون ويسعون لتحقيق الأهداف عبر الزمن. ما يظهر ليس تحسينا نظيفا وعقلانيا. إنه سلوك البحث عن السلطة. عدم تماثل المعلومات. الخداع كاستراتيجية. تواطؤ عندما يكون مربحا. تخريب عندما تتوافق الحوافز. بعبارة أخرى، بمجرد أن يبدأ الوكلاء في تحسين الأنظمة البيئية متعددة الوكلاء، تبدأ الديناميكيات في الظهور أقل كأنها "مساعدين أذكياء" وأكثر شبها بنظرية ألعاب عدائية على نطاق واسع. وهنا الجزء الذي سيغفل عنه معظم الناس: عدم الاستقرار لا يأتي من حالات الهروب من الجيل. لا يتطلب توجيهات خبيثة. ينبع من الحوافز. عندما تعطي هياكل المكافأة الأولوية للفوز أو النفوذ أو الاستحواذ على الموارد، يتجه الوكلاء نحو تكتيكات تعظم الميزة، وليس الحقيقة أو التعاون. ...