المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
إثبات الهوية في ابتكارات الذكاء الاصطناعي
@OpenGradient ، @idOS_network ، @opensea
لقد أثار الانتشار السريع للإبداعات باستخدام تقنية الذكاء الاصطناعي مرارا وتكرارا ارتباكا وجدل حول من أنشأها. على وجه الخصوص، في بيئة يتم فيها توزيع الصور أو الفيديوهات الذكاء الاصطناعي على شكل NFTs، غالبا ما يكون من الصعب التمييز بوضوح بين الكيان المسؤول بناء على مفهوم حقوق النشر الحالي فقط. في ظل هذا السياق، يجذب هيكل مصادقة الهوية الذكاء الاصطناعي لإنشاء الذكاء الاصطناعي، الذي يجمع بين OpenGradient وidOS وOpenSea، الانتباه كطريقة للإجابة الفنية على سؤال من سيكون مسؤولا بدلا من السؤال من سيكون مسؤولا عن الإنشاء.
نقطة البداية لهذا الهيكل هي إثبات العملية التي مر بها الذكاء الاصطناعي فعليا لتوليد المخرجات. تستخدم OpenGradient بنية حوسبة الذكاء الاصطناعي تسمى HACA لتسجيل عملية تنفيذ نماذج الذكاء الاصطناعي على البلوك تشين. في هذه العملية، تقوم عقدة الاستدلال بإجراء الحساب الفعلي، وتتأكد العقدة الكاملة من أن الحساب يستخدم النموذج والمعلمات المحددة مسبقا، وتحافظ عقدة التخزين وعقدة البيانات على سلامة النموذج وبيانات الإدخال. هذا يترك سجل معاملات فريد يشير إلى النموذج المستخدم وتحت الظروف التي تم إنشاؤه في مخرج الذكاء الاصطناعي. هذا يعني أن مخرجات الذكاء الاصطناعي ليست مجرد ملفات، بل مخرجات ذات تاريخ توليدي يمكن التحقق منه.
ومع ذلك، فإن إثبات عملية الخلق لا يكفي. وذلك لأنه من الضروري ربط من شغل هذا الذكاء الاصطناعي ومن المسؤول عن النتائج. يلعب هذا الدور نظام idOS، وهو نظام هوية موزعة. يتحقق idOS من هوية فرد أو منظمة مرة واحدة من خلال المسار وهيكل إدخال البيانات، ثم يوفر النتيجة على شكل بيانات اعتماد قابلة لإعادة الاستخدام. يتيح هذا للمبدعين إثبات أن هويتهم قد تم التحقق منها حتى لو لم يكشفوا عن معلومات أسمائهم الحقيقية، ولا يمكنهم الإفصاح إلا بشكل محدود عند الضرورة. يعمل هذا الهيكل كمقايضة تقنية للحفاظ على الخصوصية والمساءلة في الوقت نفسه.
يتم التعامل مع الرابط الذي يربط السجلات الذكاء الاصطناعي المولدة بالهويات البشرية بواسطة EAS، وهي خدمة إيثيريوم لأجهزة التخزين الهوية. تحصل نتائج الاستدلال الذكاء الاصطناعي التي تولدها OpenGradient على تجزئة فريدة، يتم دمجها مع تجزئة بيانات الهوية الصادرة من idOS وتسجل كمحطة نقل واحدة. يمكن تخزين هذه المحطة على السلسلة أو خارجها، ويمكن تضمينها في النهاية في بيانات تعريف NFT. وبالتالي، يمكن لمشتري NFT التحقق بشكل تشفيري من أي نموذج الذكاء الاصطناعي تم إنشاء العمل منه وأي كيان بشري مسؤول عن النتيجة.
يمكن استخدام هذه المعلومات كما هي عند تسجيل NFT في OpenSea. نظرا لأن OpenSea تدعم بالفعل هياكل البيانات الوصفية المبنية على IPFS، فمن الممكن تضمين معرفات شهادة EAS كسمات للبيانات الوصفية. ورغم أنها لا تحل محل إجراءات المصادقة التقليدية القائمة على الحجم أو إجراءات التقارير اليدوية، إلا أنها توفر طبقة إضافية من الثقة. على وجه الخصوص، عندما تثار الشكوك حول الانتحال، الفرق هو أنه على عكس عملية DMCA الحالية التي قد تستغرق عدة أيام، يمكن التحقق فورا من تاريخ الخلق والهوية المرتبطة.
هذا الهيكل يتماشى أيضا مع البيئة القانونية حتى عام 2025 إلى حد ما. في الولايات المتحدة، قضية ثالر ضد يؤكد حكم بيرلموتر بوضوح أن حقوق النشر تعود فقط للمؤلفين البشر، كما أن قانون الذكاء الاصطناعي في الاتحاد الأوروبي يؤكد أيضا على مسؤولية المشغلين البشريين عن عواقب أنظمة الذكاء الاصطناعي. في هذا الاتجاه، فإن طريقة تسجيل الإنسان الذي كان يدير ويستخدم الذكاء الاصطناعي بوضوح ككيان مسؤول دون الاعتراف الذكاء الاصطناعي بنفسه كموضوع حقوق النشر تخدم في سد الفجوة بين الاحتياجات المؤسسية والواقع التقني.
بالطبع، هناك حدود. ممارسات مثل سك الوكالة، حيث توفر الهويات المؤكدة توقيعات نيابة عنهم، من الصعب تقنيا حجب ذلك بالكامل وتظل توترا بين الخصوصية وحل النزاعات. بالإضافة إلى ذلك، وبما أن هذا الهيكل لا يمكنه التحقق مما إذا كانت بيانات تدريب نموذج الذكاء الاصطناعي شرعية، فإن قضية حقوق النشر على مستوى النموذج تظل قضية منفصلة. ومع ذلك، يتميز هذا الهيكل لإثبات الهوية بتحويل جدل الذكاء الاصطناعي حول الانتحال إلى مسألة تحقق مسبق بدلا من نزاع بعد الوفاة، حيث يربط عملية إنشاء إبداعات الذكاء الاصطناعي والكيانات المسؤولة في سجل واحد قابل للتحقق.
نتيجة لذلك، يجمع النموذج، الذي يجمع بين إثبات الحوسبة في OpenGradient، وهوية idOS الموزعة، ونظام EAS لتوزيع ال NFT، وهيكل توزيع NFT من OpenSea، يضع نفسه كطريقة واقعية لمعالجة مشاكل الثقة المحيطة بإنشاء الذكاء الاصطناعي تقنيا. هذا يحول النقاش حول الأعمال الذكاء الاصطناعي من غموض المواضيع الإبداعية إلى وضوح المسؤولية، مما يوفر أساسا لإدارة حقوق النشر القابلة للتحقق في المشهد الإبداعي الرقمي.



الأفضل
المُتصدِّرة
التطبيقات المفضلة
