المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
أدرت نقاشا بين دواركش، والدكتور بوري، وجون كلارك (من Anthropic) حول الخلافات بين الأشخاص الأكثر اطلاعا على الذكاء الاصطناعي، بما في ذلك التأثير المستقبلي على التوظيف، وما إذا كان فقاعة، وما إلى ذلك.
شكرا ل Substack على تحقيق ذلك.
أحد الخلافات الفرعية هو إلى أي مدى تكون نماذج اللغة الكبيرة (LLMs)، التي يتفق هذا الجمهور تماما أنها قادرة على القيام بأشياء ذات قيمة تجارية، وتكون حادة وعرضة للأخطاء بطرق يصعب التنبؤ بها.
نعم! وكذلك البشر. ولحسن الحظ لدينا أخطاء مختلفة.

نقطة أشار إليها جاك وهي واحدة من أكبر الفجوات في الفهم بين الأشخاص المطلعين جيدا وأولئك الذين يحتاجون إلى الاطلاع: قدرات اليوم هي الحد الأدنى وليس السقف.
أي نظام مستقبلي يمكنه الاشتراك أو التخلص منها.
يروي جاك بإيجاز كيف أن نماذج اللغة الكبيرة كانت خروجا حادا عن الفكرة الشائعة سابقا بأننا سنطور الذكاء ببناء مئة ألف سرير اختبار، وأن تتعلم حلول النقاط كيف تفوز بفارق ضيق، ثم ??? التعميم يعني الذكاء.
بدلا من ذلك، بنينا أداة عامة *لافتة* حول ما يناسب بيئة معينة ("ضعها في غرفة مع كل مستند مكتوب") ثم الأداة التي ظهرت بشكل مذهل تكون ناجحة جدا عندما تطرحها على مهام جديدة. قد تتضمن السنوات القادمة صنع أسرة اختبار.
كما لاحظت: كنا ندرب الذكاء الاصطناعي للعب ستاركرافت.
كل المحاولات المستقبلية للقيام بذلك يمكن أن تفترض أن النظام قرأ فن الحرب بالصينية الأصلية، إلا إذا كان المهندسون المعماريون يعتقدون أن المعرفة ستجعلك أسوأ في إيقاف هجمات الزيرغلينغ.
* جاك كلارك، وليس جون كلارك. عذرا، نشأت وأنا أقرأ توم كلانسي.
في يوم من الأيام سيتمكنون من معاينة تغريداتي، وسأفرح بمدى قلة الضرر عند المسودة على الهاتف المحمول.
226
الأفضل
المُتصدِّرة
التطبيقات المفضلة
