المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
أنا أدين بشدة الضربة على Prime Intellect، فهم يفعلون الشيء الصحيح تماما.
نماذج القواعد الصينية بعد التدريب على مستوى الحدود في الواقع *أهم* الآن من تعلم تدريب قواعدنا مسبقا. في الأساس، لا يهمني ما يمكن للمشرف أو آرسي وغيرهم تدريبه مسبقا، رغم أن لدي توقعات معقولة أنهم سيلحقون بالركب قريبا. الحوسبة وفيرة في الغرب ونرى بالفعل أدلة على خبرة كافية في التدريب المسبق مع نماذج أصغر (هاتان + @ZyphraAI، @Dorialexander، @natolambert أولمو...) في الفضاء المفتوح الغربي؛ وبحسب كل الروايات، فهو يتوسع. لكن هذا في الغالب... الأهمية الجيوسياسية، لما سيسمح لكم بتشغيله على خوادمهم الوطنية المتصلة بأطر عمل وكيلية. أنا لست غربيا ولا صينيا، وعلى عكس منشوري، لا أهتم بشكل نهائي بهذا البعد، فهو مسألة آلية بحتة. راجع السيرة الذاتية: السباق ليس بين الولايات المتحدة/الغرب والصين، بل بين البشر والذكاء الاصطناعي العام مقابل مركزية قوة القردة. وشركة برايم إنتلكت تفعل أكثر من أي شخص آخر لإيقاف الدافع المركزي.
فكر وابكي: HF مليء بالهدايا السماوية التي نحن غير قادرين على استخدامها، فهي تتعفن هناك حتى تصبح قديمة. آلاف إلى ملايين التنزيلات ولا شيء يعرض. لماذا تقوم كوين أصلا بصنع نماذج قديمة ومكلفة جدا تشبه نماذج لاما الكثيفة في المقام الأول؟ في الغالب لأن أ) علي بابا لديها مؤشر أداء رئيسي "تنزيلات HF شهرية" و ب) الأكاديميين والمختبرات الصغيرة لا يستطيعون معرفة كيفية ضبط العمارة الحديثة. حتى لو كانت البنية التحتية أكثر نضجا وأقل تقنية من الناحية التقنية NNGMI، على ماذا يضبطونها بدقة؟ ذروة السرد لضبط المصادر المفتوحة كانت في Nous-Hermes، وكان هذا النموذج في الأساس مجرد تقطير GPT-4، والتصفية حسب "الطعم" والمعايير الغامضة، والاعتماد على SFT على أساس قوي، والأمل في الأفضل. تم رفض هذا الجانب من الهجوم مسبقا من قبل OpenAI وآخرين باعتباره طريقا مسدودا غير مهدد يكافئ الهلوسات وتقليد الأسلوب، وكما هو متوقع، تلاشت هذه النقطة. ماذا بعد، «RL»؟ ما هو التعلم الحقيقي، كيف التعلم الواقعي، ما هو مولد الإشارة، كيف يتقاطع مع المهام اللاحقة؟ Kimi-K2، قاعدة حدودية متنقية، متاحة للجميع منذ عدة أشهر. DeepSeek-V3، تقريبا منذ عام. V2، أكثر من سنة بكثير. عشرات النماذج بجميع الأحجام، يتم تحديثها بشكل دوري مع سياق أطول ومزايا أخرى. وماذا بنينا من كل ذلك؟
هل هناك أي شيء يقترب حتى من التعليمات الصينية الداخلية، ناهيك عن الحدود المعاصرة؟ مرحبا؟ هل يمكنك أن ترشدني إلى هذه المشتقات؟ إنه تدنيس كامل لفكرة العلم المفتوح. ولا حتى الصينيون يفعلون ذلك، فجميعهم يدربون نماذجهم بأنفسهم من الصفر. أستطيع أن أفكر في عدد قليل جدا من الاستثناءات (مثل Rednote الذي صنع DSV3-VL)، لكن لم يحقق أي منها ضجة كبيرة. الشركات الناشئة التي تساوي مليارات الدولارات، والتي تمثل البحث أو الترميز الوكالتي، وبالتالي مجموعات بيانات كبيرة بعد التدريب، تستخدم DS/GLM/Qwen في منتجاتها الخاصة، لكنها لا تشترك في ألفا. إنه... عن ذلك.
هنا يأتي دور برايم إنتلكت. إنهم يحلون التدريب. هم يحلون مشكلة توليد البيئة. هم يفكرون بطريقة مبدئية حول الإشارات التي تشكل الإدراك العام للنموذج. بل هي فعليا تفتح مخزونا هائلا من القيمة الجامدة التي تراكمت. بالنسبة للعالم، هذا أكثر بكثير من مجرد عارضة أزياء أخرى. هم أذكياء بشكل مخيف، لديهم نوايا حسنة، لديهم خارطة طريق قوية، وهم أصدقائي. لن أسمح لهم بالتقليل من شأن أعمالهم، لأنها تخدم المهمة المشتركة الكبرى. إذا لم تره، فلن يكون لديك أدنى فكرة عما هو مهم حقا في هذه المرحلة.
الأفضل
المُتصدِّرة
التطبيقات المفضلة

