التحقق من صحة البيانات في الحوسبة الذكاء الاصطناعي اللامركزية: ثلاث طرق لضمان السلامة في بيئة موزعة @OpenledgerHQ ، @gensynai ، @OpenGradient نظرا لأن الحوسبة الذكاء الاصطناعي اللامركزية هي هيكل يشارك فيه عدة مشاركين البيانات والحسابات، فإن كيفية تأمين الثقة تظهر كقضية أكثر أهمية من الطريقة الحالية التي تعتمد على خادم مركزي. وفي هذا الصدد، تم تقديم OpenLedger وGensyn وOpenGradient كمشاريع مسؤولة عن التحقق في مراحل مختلفة من البيانات والتعلم والاستنتاج. تهدف جينسين إلى أن تكون شبكة تعلم موزعة تجمع موارد الحوسبة الخاملة المنتشرة حول العالم لتدريب نماذج الذكاء الاصطناعي. ولتمكين التعلم حتى في البيئات التي يكون فيها الاتصال بطيء وأداء الجهاز مختلفا، تم اقتراح طرق تعلم منخفضة الاتصال مثل NoLoCo وتقنيات استعادة الأعطال مثل CheckFree. وفي الوقت نفسه، يتحقق مما إذا كان حساب التدريب قد تم بشكل صحيح من خلال بروتوكول فيردي، وإذا كانت النتائج مختلفة، فإنه يستخدم هيكلا يستخدم هيكلا يحكم بإعادة تشغيل خطوة عملية محددة فقط دون إعادة تشغيل التدريب بالكامل. للقيام بذلك، تستخدم مكتبة RepOps لإجبار الحتمية بحيث يتم الحصول على نفس نتائج الحساب على أجهزة مختلفة. ومع ذلك، يؤكد هذا التحقق دقة الحسابات للمدخل المعين ولا يحدد تلقائيا ما إذا كانت البيانات المستخدمة للتدريب ملوثة مسبقا. يركز OpenLedger على تتبع أصل وتاريخ تغير البيانات نفسها المستخدمة في التدريب. يقوم المساهمون بتقديم الملفات بصيغة محددة مسبقا إلى Datanet، ويتم تسجيل هذه المساهمات على السلسلة حتى يتمكنوا من معرفة متى وأي بيانات تم استخدامها في أي إصدار. تم تصميمه للحد من حجم الملف وتكرار الرفع، والمرور بعمليات الموافقة وإصدار الإصدارات لتقليل التدفق العشوائي للبيانات. يتم شرح هيكل الحد من المساهمات الخبيثة أو المكررة من خلال تقييمات الجودة والعقوبات القائمة على الراهن (staking)، مما يوضح أن الهدف هو ضمان المساءلة وتتبع مساهمات البيانات. تتولى OpenGradient مسؤولية التحقق مما إذا كانت العملية قد نفذت بشكل صحيح عندما قام النموذج فعليا بالاستدلال بعد التدريب. اترك إثباتا تشفيريا أو عتادا مع نتيجة الاستنتاج وسجلها في سجل التدرج حتى يمكن تدقيق النتيجة بعد حدوثها. لتقليل عبء الأداء، تتم معالجة الحسابات الثقيلة بشكل متوازي خارج السلسلة، بينما يتم التحقق فقط من النتائج والبراهين على السلسلة. طريقة التحقق هي ZKML، التي توفر ضمانا عاليا ولكن لها تكلفة حسابية عالية، وTEE التي تفترض ثقة الأجهزة مع عبء أداء شبه معدوم، وطريقة فانيلا التي تحذف التحقق. عند جمع هذه المشاريع الثلاثة معا، يتم الكشف عن تقسيم الأدوار: يسجل OpenLedger البيانات الواردة، ويتحقق Gensyn مما إذا كان التدريب قد تم بشكل صحيح باستخدام تلك البيانات على المستوى الحاسوبي، ويتحقق OpenGradient مما إذا كان النموذج المدرب قد نفذ الاستنتاج بشكل صحيح. ومع ذلك، حتى يناير 2026، لم تكن هذه المراحل مرتبطة بخط أنابيب تقني رسمي واحد، ولم تقترح معايير لربط إثبات مصادر البيانات، والتحقق من التعلم، والتحقق من الاستنتاج في سلسلة إثبات مستمرة. في النهاية، يمكن فهم التحقق اللامركزي من البيانات في الذكاء الاصطناعي الحالي كحالة تتطور فيها طبقات مختلفة من الأجهزة مثل تسجيل البيانات، والتعلم، والتحقق من الحسابات، والتحقق من الاستنتاجات بالتوازي مع أدوار وقيود واضحة، بدلا من "نظام يضمن كل شيء دفعة واحدة". $OPEN