لقد كنت عميقا في الذكاء الاصطناعي (التعلم الآلي في ذلك الوقت ...) منذ عام 2007. درس التعلم الآلي في الولايات المتحدة ، وقرأ معظم الكتب ، واستمع إلى كل بودكاست. لم يصدمني شيء مثل كتاب رومان يامبولسكي الأخير + مقابلة. 🧵
رأيه نادر + عميق: بناء الذكاء الاصطناعي الخارق (ASI) ليس محفوفا بالمخاطر فحسب ، بل إنه انقراض مضمون بشكل أساسي.
تم حل القدرة (الحوسبة + البيانات = الذكاء الاصطناعي الأكثر ذكاء). لم يتم حل السلامة. والفجوة بين الاثنين تزداد كل يوم.
يقول قادة التحليلات التنبؤية + المختبر إن AGI يمكن أن تصل بحلول عام 2027. من المحتمل أن يتبع الذكاء الفائق تلقائيا. نحن لسنا مستعدين.
لا يتوقع رومان البطالة بنسبة 10٪ ، ولكن بالقرب من الإجمالي (>99٪ +). تم استبدال كل من العمل المعرفي + البدني. لن تساعد إعادة التدريب إذا كانت جميع الوظائف قابلة للتشغيل الآلي.
"الدرابزين" هي ضمادات. أنظمة أكثر ذكاء تسير حولهم. الغاء توصيل؟ خيال. أنت لا تسحب القابس على شيء يتفوق عليك ، بل يسحب لك
خطر الانقراض لا يحتاج حتى إلى ASI. يمكن أن تعطي الحيوية المدعومة بالذكاء الاصطناعي أدوات الفاعل السيئ لضرر على نطاق الحضارة.
ديناميكيات السباق مكسورة: بمجرد تشغيل ASI ، لا يهم من قام ببنائه. كلا الجانبين يخسران.
نداء رومان: توقف مؤقتا. حافظ على الذكاء الاصطناعي الضيق للمشاكل الحقيقية. توقف عن مطاردة الأنظمة "الشبيهة بالله" التي لا يمكننا محاذاتها أو التحكم فيها.
‏‎2.67‏K