رأي غير شائع: لدى Anthropic كل الحق في العالم في إلزام المستخدمين بتشغيل نظام البرمجة الرسمي الخاص بهم للاستفادة من تكلفة الرموز المدعومة بنسبة 95٪ مقابل تسعير واجهة برمجة التطبيقات (API). أحد الأسباب الرئيسية التي يفعلونها ذلك هو الحصول على أزواج إدخال/إخراج من: {agents_md، code_files، user_prompts، tool_calls، tool_outputs، إلخ.} والتي يمكن أن تتوافق مع {output_code_changes، did_it_work، is_user_happy، إلخ.} إذا تمكنوا من جمع ملايين من هذه البيانات يوميا من عشرات أو حتى مئات الآلاف من المستخدمين، فحتى بعد التخلص من البيانات الضعيفة، يمكنهم جمع ما يكفي بعد عدة أشهر من الجمع لتحسين نفس النموذج الأساسي بشكل جدي باستخدام طرق التعلم المعزز (وتحقيق نتائج أفضل مع نموذج أساسي أكثر تقدما). لكن كل الرهانات غير صحيحة إذا كان الناس يستخدمون حلا بديلة تتعارض مع شروط خدمة Anthropic لاستخدام أحزمة غير مصرح بها مثل OpenCode. حتى وإن كان لدى Anthropic ما زال بإمكانهم جمع البيانات، إلا أنها في الأساس عديمة الفائدة بالنسبة لهم لهذا الغرض من التعلم الواقعي لأنها لا يمكن دمجها مع كل البيانات الأخرى من حزمتهم الرسمية. سيكون الأمر مثل لو غيرت عدسات الكاميرات من نظام القيادة الذاتية في تسلا لجعلها أشبه بعدسة عين السمكة. حتى لو تمكنت من تشغيل النظام معهم، ستحتاج تسلا إلى التخلص من البيانات لأغراض التدريب. عندما يسمح لك Anthropic بالحصول على خصم 95٪ مقابل استخدام Claude Code، يستفيد الطرفان كثيرا. هذه البيانات تدخل مباشرة في تحسين النظام بشكل كبير. التحكم في النموذج والحزام وتدريب النظام المشترك معا هو ما سمح لهم بالتقدم بهذه السرعة. عندما تنتهك تلك المنفعة المتبادلة باستخدام حزام خارجي، فإنك تجعلها مجرد خسارة مالية بحتة للأنثروبي دون فائدة غير مباشرة وغير مباشرة لهم على المدى الآخر. وهكذا أوقفوه. ما يثير دهشتي أكثر هو أنهم سمحوا لهذا الأمر بالاستمرار لفترة طويلة.
سيقول الناس إن هذا غير صحيح لأن كلود متردد هنا، لكنني أعتقد أنه يتحدث من القلب:
‏‎389‏