هيكل ضمان الثقة لتدريب وتحقق نماذج الذكاء الاصطناعي اللامركزية الشفافة @gensynai ، @nesaorg ، @DeepNodeAI الفرضية الأولى التي يتم أخذها في الاعتبار عند تدريب والتحقق من نماذج الذكاء الاصطناعي في بيئة موزعة هي أنه من المستحيل افتراض أن جميع المشاركين سيتصرفون دائما بصدق. في حالات البحث والعمليات الفعلية، تم تحديد إخفاقات محددة، مثل الفشل الحر حيث تعطي عقد الحوسبة نتائج معقولة لكنها غير مؤكدة لتقليل التكاليف الحسابية، وتسمم البيانات بسبب إدخال بيانات التدريب الخبيث، وتقديم بيان إكمال مبالغ فيه في عملية التعلم التعزيزي، والتلاعب بالتدرج الذي لم يكشف إحصائيا، والحالات التي تتواطأ فيها عدة عقد لتشويه بنية الإجماع. توفر هذه المخاطر نقطة انطلاق لشرح سبب الحاجة إلى آليات لضمان الشفافية والثقة تقنيا. لمعالجة هذه المشكلة، يقترح جينسين هيكلا موجه للتنفيذ يأخذ الحساب نفسه كموضوع للتحقق. في هذا الهيكل، يتم تحليل مهمة التعلم الآلي إلى رسوم بيانية حسابية حتمية على مستوى المشغل قابلة لإعادة إنتاجها، ويتم تصميم نفس العملية ليتم إعادة إنتاجها بالتساوي بترا ببت في بيئات الأجهزة المختلفة. يجمع بروتوكول فيردي بين تفويض التحكيم ولعبة ثنائية لإيجاد أول نقطة عمل حيث تكون نتيجة الحساب غير متزامنة وإعادة تنفيذها مع إعادة تنفيذ بسيطة للجزء المتنازع عليه، مع الحفاظ على الكفاءة. تتم التعديلات الاقتصادية على التركيبات القائمة على الإيثيريوم، وتنفذ العمليات الكبيرة الفعلية خارج السلسلة، لكن الميزة الأساسية هي أن دقة النتائج مضمونة تشفير إذا كان هناك على الأقل عقدة نزيهة واحدة. داخل نفس المجموعة، يكون Delphi من Gensyn مسؤولا عن التحقق من مدى كفاءة عمل النموذج الناتج، وليس عن كيفية إجراء الحسابات. تنظم دلفي تقييمات أداء النماذج على شكل أسواق تنبؤية، وتسمح للمشاركين بالمراهنة على نتائج الأداء، وتحدد النتائج بشفافية من خلال منطق الحكم المتسلسل. تعتمد هذه العملية على التحقق الإحصائي والحوافز الاقتصادية بدلا من البراهين التشفيرية، لكنها تعمل كآلية توفر الشفافية بحيث يتم تسجيل معايير التقييم والنتائج علنا. أما نيسا، فهي تتبع هيكلا يضع الأولوية لحماية الخصوصية على حساب الشفافية. يستخدم NESA شظايا الشبكة العصبية التسلسلية المعتمدة على البلوكشين لتقسيم النموذج إلى أجزاء متعددة ويطبق تقنيات توزيع السر المتشابه للتشفير المتماثل والتضمينات المشفرة بحيث لا يمكن لأي عقدة واحدة رؤية النموذج بأكمله أو البيانات بأكملها. يركز هذا النهج على ضبط المعاملات بدقة فعالة باستخدام المحولات بدلا من تدريب النموذج بالكامل من الصفر، ويتميز بالحفاظ على حدود الخصوصية من خلال إجراءات تتحقق من نتائج الاستدلالات التي يتم تنفيذها خارج السلسلة على السلسلة. ومع ذلك، بما أن عملية الحساب مشفرة، هناك أيضا قيد هيكلي يصعب إعادة إنتاج أو التحقق المباشر من العملية من الخارج. يتعامل الذكاء الاصطناعي في DeepNode الشفافية في اتجاه آخر. يستخدم النظام آلية سوقية تعتمد على التقييم المتبادل والرهان بين العقد بدلا من البراهين التشفيرية للعمليات الحاسوبية. كل نظام ذكي يقيم معلومات الإخراج للنظام الآخر، ويتم توزيع المكافأة وفقا لدالة الخسارة المرجحة حسب الحصة. تتشكل السمعة من خلال التفاعلات المتكررة، وتفرض عقوبات على المشاركات الخاطئة، وهذا الضغط الاقتصادي يخدم في مواءمة سلوك المشاركين. يتميز هذا الهيكل بأنه رغم أنه لا يوفر دليلا تشفيريا، إلا أنه يبني الثقة بطريقة تكشف بوضوح عن الدافع وراء المشاركة. وعند جمع هذه الأساليب معا، تظهر أن الشفافية في تدريب وتحقق الذكاء الاصطناعي اللامركزي ليست مفهوما واحدا، بل يتم تحقيقها في طبقات متعددة. يتحقق فيردي من جينسين مما إذا كانت مهمة ما قد أنجزت، ويتحقق دلفي من أداء النتائج، ويتحقق ديب نود من مساهمات المشاركين ونزاهتهم بطرق مختلفة، وكل ذلك يركز نيسا على تقليل تعرض البيانات والنماذج في العملية. وفي الوقت نفسه، التوتر واضح أيضا: الحسابات المشفرة تحد من قابلية التكرار والتدقيق المباشر، والهياكل التي تتطلب إعادة إنتاج كاملة توفر خصوصية بيانات قليلة. نتيجة لذلك، يتم تقييم مكدس الذكاء الاصطناعي اللامركزي الحالي على أنه لا يعالج بشكل كامل قضايا مثل أصل وأصالة بيانات التدريب، ومزامنة التدرج في بيئة عالمية، والتنسيق بين الأنظمة الاقتصادية المختلفة. ومع ذلك، من الواضح نسبيا ما هي العناصر الهيكلية التي تتكون من تدريب وتحقق نماذج الذكاء الاصطناعي اللامركزية الشفافة، حيث توفر آليات مختلفة مثل التحقق الحاسوبي، وتقييم الأداء، والحوافز الاقتصادية، وحماية الخصوصية شفافية ضمن نطاق التحقق. $NESA